Tag Archiv für zpool

ZFS: zpool reparieren, wenn die Partitionstabelle beschädigt wurde

Leider ist mir ein gravierender Fauxpas unterlaufen, als ich die Systemplatte meines FreeNAS Servers klonen wollte, um das Update auf 9.10 zu testen. Weil ich unbedacht das DVD Laufwerk aktiviert habe, bevor ich mit dd den Inhalt der System SSD auf eine neue übertragen habe, habe ich statt der SSD eine der 3 Platten des ZFS RaidZ überschrieben. Natürlich hat ein Abbrechen des dd nicht mehr geholfen. Die Daten waren zwar nicht verloren, aber der ZFS Pool war logischerweise Degraded:

[root@freenas] ~# zpool status
pool: daten
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://illumos.org/msg/ZFS-8000-2Q
scan: scrub in progress since Sun Apr 3 00:00:01 2016
2.80T scanned out of 5.68T at 156M/s, 5h22m to go
0 repaired, 49.30% done
config:

NAME STATE READ WRITE CKSUM
daten DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gptid/9f68b9bd-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
gptid/9fd6a91e-5b9e-11e3-98ec-001b210ff370 ONLINE 0 0 0
15598684992044849509 UNAVAIL 0 0 0 was /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370

errors: No known data errors

Da meine Erfahrungen mit ZFS noch nicht so groß sind, mußte ich lange recherchieren, bis ich eine auf meine Situation anwendbare Anleitung gefunden habe. Letztlich waren es nur ein paar Befehle bis zum Rebuild des Raids:

[root@freenas] ~# zpool offline daten /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370
[root@freenas] ~# zpool status daten
  pool: daten
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: scrub in progress since Sun Apr  3 00:00:01 2016
        4.28T scanned out of 5.68T at 139M/s, 2h55m to go
        0 repaired, 75.40% done
config:

        NAME                                            STATE     READ WRITE CKSUM
        daten                                           DEGRADED     0     0     0
          raidz1-0                                      DEGRADED     0     0     0
            gptid/9f68b9bd-5b9e-11e3-98ec-001b210ff370  ONLINE       0     0     0
            gptid/9fd6a91e-5b9e-11e3-98ec-001b210ff370  ONLINE       0     0     0
            15598684992044849509                        OFFLINE      0     0     0  was /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370

errors: No known data errors
[root@freenas] ~# zpool status daten
  pool: daten
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Sun Apr  3 08:59:58 2016
        55.7M scanned out of 5.68T at 6.19M/s, 267h11m to go
        16.1M resilvered, 0.00% done
config:

        NAME                                            STATE     READ WRITE CKSUM
        daten                                           DEGRADED     0     0     0
          raidz1-0                                      DEGRADED     0     0     0
            gptid/9f68b9bd-5b9e-11e3-98ec-001b210ff370  ONLINE       0     0     0
            gptid/9fd6a91e-5b9e-11e3-98ec-001b210ff370  ONLINE       0     0     0
            replacing-2                                 OFFLINE      0     0     0
              15598684992044849509                      OFFLINE      0     0     0  was /dev/gptid/a0957d41-5b9e-11e3-98ec-001b210ff370
              ada3                                      ONLINE       0     0     0  (resilvering)

errors: No known data errors