Erinevus lehekülje "ZFS failisüsteemi kasutamine" redaktsioonide vahel

Allikas: Kuutõrvaja
(Probleemide lahendamine käsuga scrub)
(Sissejuhatus)
45. rida: 45. rida:
 
siis on 99% ulatuses toodud käsud rakendatavad ka FreeBSD süsteemis. Lõpus on ära toodud ka mõned FreeBSD spetsiifilised kasutusjuhtumid.
 
siis on 99% ulatuses toodud käsud rakendatavad ka FreeBSD süsteemis. Lõpus on ära toodud ka mõned FreeBSD spetsiifilised kasutusjuhtumid.
  
Peamiseks erinevuseks võrreldes Solarisega on see ,et FreeBSD's pole moodul vaikimisi laetud ning selle jaoks tuleb lisada rc.conf faili rida
+
Peamiseks erinevuseks võrreldes Solarisega on see ,et FreeBSD's pole moodul vaikimisi laetud ning selleks tuleb lisada rc.conf faili rida
  
 
  zfs_enable="YES"
 
  zfs_enable="YES"
 +
 +
Või tükkida käsk zfs mooduli jooksvalt laadimiseks
 +
 +
# kldload zfs
  
 
===Kasutus===
 
===Kasutus===

Redaktsioon: 22. november 2010, kell 20:21

ZFS

ZFS (Zettabyte File System) on Sun'i teadlaste poolt välja töötatud failisüsteem, millel on järgmised iseloomulikud tunnused

  • praktiliselt piirita mahupiirangud (failisüsteemi suuruse, failide arvu, snapshottide arvu jms omaduste jaoks)
  • 2008 aasta sügisel ilmunud Solaris 10 u6 operatsioonisüsteemi saab ZFS pealt alglaadida
  • kokku on ühendatud failisüsteemi ning logical volume managementi omadused, mis teeb kasutamise mugavaks
  • ZFS on open-source failisüsteem (Common Development and Distribution License)
  • töötamise ajal saab failisüsteemi moodustavate seadmete arvu suurendada, aga eemaldada saab vaid teatud tingimustel

ZFS versioonid ja neis lisandunud võimalused

VER  DESCRIPTION
---  --------------------------------------------------------
 1   Initial ZFS version
 2   Ditto blocks (replicated metadata)
 3   Hot spares and double parity RAID-Z
 4   zpool history
 5   Compression using the gzip algorithm
 6   bootfs pool property
 7   Separate intent log devices
 8   Delegated administration
 9   refquota and refreservation properties
 10  Cache devices
 11  Improved scrub performance
 12  Snapshot properties
 13  snapused property
 14  passthrough-x aclinherit
 15  user/group space accounting
 16  stmf property support
 17  Triple-parity RAID-Z
 18  Snapshot user holds
 19  Log device removal
 20  Compression using zle (zero-length encoding)
 21  Deduplication
 22  Received properties

Tabeli paremaks mõistmiseks info, et FreeBSD 8-STABLE/9-CURRENT peale on portud versioon 14 (versioon 13 on 8.0-RELEASE süsteemis). Täpsemat infot FreeBSD peal ZFS kasutamisest ja versioonidest leiab http://wiki.freebsd.org/ZFS

Sissejuhatus

Siin tekstis vaadeldud eelkõige ZFS failisüsteemi kasutamist operatsioonisüsteemil Solaris, kuid kuna FreeBSD peale on ZFS samuti täiel mahul porditud ning uuendusi porditakse piisavalt sagedasti siis on 99% ulatuses toodud käsud rakendatavad ka FreeBSD süsteemis. Lõpus on ära toodud ka mõned FreeBSD spetsiifilised kasutusjuhtumid.

Peamiseks erinevuseks võrreldes Solarisega on see ,et FreeBSD's pole moodul vaikimisi laetud ning selleks tuleb lisada rc.conf faili rida

zfs_enable="YES"

Või tükkida käsk zfs mooduli jooksvalt laadimiseks

# kldload zfs

Kasutus

ZFS failisüsteemi kasutuselevõtmine toimub kahes etapis

  1. tuleb moodustada ZFS pool
  2. ZFS poolis tuleb moodustada ZFS failisüsteemid

Üldiselt nimetatakse pooli, failisüsteemi, snapshoti või klooni dataset'iks.

Pool

ZFS pooli tegemisel näidatakse, milliseid füüsilisi seadmed ja millise redundantsusega kasutama asutakse. Kõige otsekohesem on kasutada kogu füüsilist seadet, aga võimalik on kasutada ka nn Solarise partitsioone, nt c4t0d0s6 või tavalisi faile failisüsteemist. Viimane võimalus on praktiliselt sobilik ehk vaid katsetamiseks ning ZFS omaduste tundmaõppimiseks.

Näiteks, moodustame kahe Solaris operatsioonisüseemile nähtava kettaseadme c2t0d0 ja c3t0d0 baasil ZFS pool'i nimega tank, milles on füüsilised kettaid paigutatud peeglisse

# zpool create tank mirror c2t0d0 c3t0d0

Moodustatud pool'i omadusi saab vaadata käsuga

# zpool status

Pooli eemaldamine toimub käsuga

# zpool destroy tank

Raid 5 skeemiga pooli moodustamiseks tuleb öelda

# zpool create tank raidz c6t8d0 c7t0d0 c7t5d0

Ning stripe ehk raid0 tekitamiseks

# zpool create tank c6t8d0 c7t0d0 c7t5d0

Pooli omadusi saab küsida öeldes

 # zpool get all tank
 NAME  PROPERTY     VALUE       SOURCE
 tank  size         244G        -
 tank  used         132G        -
 tank  available    113G        -
 tank  capacity     53%         -
 tank  altroot      -           default
 tank  health       ONLINE      -
 tank  guid         16227317280498583651  -
 tank  version      4           local
 tank  bootfs       -           default
 tank  delegation   on          default
 tank  autoreplace  off         default
 tank  cachefile    -           default
 tank  failmode     wait        default

Pooli juures on oluline tähele panna, et ta kasutab sisemiselt nn on-disk format'it. Võimalikud väärtused Solaris 10 u6 puhul on

# zpool upgrade -v  
This system is currently running ZFS pool version 10.

The following versions are supported:

VER  DESCRIPTION
---  --------------------------------------------------------
 1   Initial ZFS version
 2   Ditto blocks (replicated metadata)
 3   Hot spares and double parity RAID-Z
 4   zpool history
 5   Compression using the gzip algorithm
 6   bootfs pool property
 7   Separate intent log devices
 8   Delegated administration
 9   refquota and refreservation properties
 10  Cache devices
For more information on a particular version, including supported releases, see:

http://www.opensolaris.org/os/community/zfs/version/N

Where 'N' is the version number.

Pooli moodustamisel saab lisaks määrata ka on-disk format versiooni.

Pooli ümbernimetamiseks tuleb anda järgnevad käsud: Nimetame pooli katsetus ümber srv'ks

# zpool export katsetus
# zpool import katsetus srv

või

# zfs rename tank/katsetus tank/srv

Failisüsteem

Moodustame poolis kaks failisüsteemi, /opt/csw ning /export/home (tundub, et neil kahel konkreetsel juhul on ZFS failisüsteemist palju abil, samas peab arusaadavalt vaatama, et süsteem, kus tegevusi läbi viia oleks selleks valmis)

# zfs create anum/opt-csw
# zfs create anum/export-home

Peale failisüseemide moodustamist tuleks neile näidata sobivad ühenduspunktid

# zfs set mountpoint=/opt/csw anum/opt-csw
# zfs set mountpoint=/export/home anum/export-home

Ühenduspunkti eemaldamiseks tuleb kasutada mountpoint=none väärtust.

Failisüsteemi külge ja lahti ühendamine toimub vastavalt

# zfs mount anum/opt-csw
# zfs umount anum/opt-csw

Failisüsteemide seisu saab vaadata käsuga

# zfs list

või ise näidates soovitud parameetrid

 # zfs list -o shareiscsi,origin,name,used,avail,refer,mountpoint,type

Failisüseemi eemaldamine toimub sarnase käsuga

bash# zfs destroy anum/opt-csw

Failisüsteemi omaduste küsimiseks tuleb öelda näiteks

 # zfs get all anum/iscsi
 NAME        PROPERTY       VALUE                  SOURCE
 anum/iscsi  type           filesystem             -
 anum/iscsi  creation       Tue Oct  9 15:38 2007  -
 anum/iscsi  used           36.5K                  -
 anum/iscsi  available      6.63G                  -
 anum/iscsi  referenced     36.5K                  -
 anum/iscsi  compressratio  1.00x                  -
 anum/iscsi  mounted        yes                    -
 anum/iscsi  quota          none                   default
 anum/iscsi  reservation    none                   default
 anum/iscsi  recordsize     128K                   default
 anum/iscsi  mountpoint     /anum/iscsi            default
 anum/iscsi  sharenfs       off                    default
 anum/iscsi  checksum       on                     default
 anum/iscsi  compression    off                    default
 anum/iscsi  atime          on                     default
 anum/iscsi  devices        on                     default
 anum/iscsi  exec           on                     default
 anum/iscsi  setuid         on                     default
 anum/iscsi  readonly       off                    default
 anum/iscsi  zoned          off                    default
 anum/iscsi  snapdir        hidden                 default
 anum/iscsi  aclmode        groupmask              default
 anum/iscsi  aclinherit     secure                 default
 anum/iscsi  canmount       on                     default
 anum/iscsi  shareiscsi     off                    default
 anum/iscsi  xattr          on                     default

Failisüsteemi loomisel vaikimisi ei ole määratletud failisüsteemi suurust. Kui sama zfs pooli sisse moodustada mitu failisüsteemi, siis ühe täitumine tähendab kõigi täitumist, selle vastu aitab failisüsteemile suuruse seadmine (ingl. k. quota) öeldes nt

 # zfs set quota=16G anum/export-home

Kui on soov lihtsalt mingitele kaustadele/kasutajatele panna quota pooli siseselt peale siis aitab lihtsalt käsk

# zfs create -o compression=on -o quota=905G poolinimi/mart
# zfs create -o compression=on -o quota=905G poolinimi/ants

Kasuks tuleb ka eelnevalt

# zfs set atime=off poolinimi

Snapshoti kasutamine

Failisüsteemist snapshoti moodustamisel fikseeritakse ära ajahetkele vastav failisüsteemi olek ning seostatakse selle olekuga nimi. Snapshoti nime abil saab edaspidi selle snapshoti poole pöörduda. Peale failisüsteemist snapshoti moodustamist toimub vastava failisüsteemi enda kasutamine edasi muutusteta.

Snapshot võimaldab

  • ajahetkele vastavale failisüsteemi olekule tagasi pöörduda
  • ajahetkele vastavast failisüsteemist teha koopiat (nt backupi või failisüsteemi klooni tegemise mõttes)
  • vahetult read-only ligipääsu selle ajahetkele vastavale seisule (snapshot on iseenesest read-only)

Failisüsteemist snapshoti moodustamine toimub näiteks käsuga

bash# zfs snapshot anum/opt-csw@20070331

kusjuures @-märgi järel ei pruugi olla tingimata aega tähistav sõne. Snapshoti saab moodustada failisüsteemist, mille failid on avatud, kuid ilmselt saab kooskõlaliste andmetega snapshoti, kui failisüsteem ei ole parasjagu kasutusel (või on teada kuidas olukorda lahendada).

Kui failisüsteem oli snapshoti tegemise ajal ühendatud kataloogi /opt/csw alla, siis snapshotile vastavale failisüsteem asub kataloogis /opt/csw/.zfs/snapshot/20070331. Oluline on tähele panna, et shelli tab klahviga complete'imine ei toimi, '.zfs/' osa tuleb välja kirjutada.

Üheks snapshoti kasutamise eesmärgiks võiks olla tekitada olukord, et peale muudatuste tegemist kõnealusesse failisõsteemi saaks vajadusel hõlpsasti pöörduda tagasi eelmisele seisule. Tingimusel, et taastataval failisüsteemil ei ole avatud faile (st praktiliselt peab olema võimalik failisüsteemi lahti ühendada, mida küll zfs käsk automaatselt teeb), tuleb eelmisele seisule tagasipöördumiseks öelda

bash# zfs rollback anum/opt-csw@20070331

Teiseks snapshoti kasutamise eesmärgiks võiks olla ajahetkele vastava koopia moodustamine, mida saab talletada faili kujul ning millelt saab hiljem vajadusel ajahetkele vastavat failisüsteemi seisu taastada. Koopia tegemine toimub käsuga

bash# zfs send anum/export-home@20070331 | gzip -c > anum-export-home-20070331.gz

Taastamine toimuks käsuga

bash# gunzip -c anum-export-home-20070331.gz | zfs receive anum/export-home

Arvutis olevate snapshottide nimekirja näeb käsuga

bash# zfs list -t snapshot

Snapshoti eemaldamine toimub käsuga

bash# zfs destroy anum/opt-csw@20070331

Failisüsteemi kloon

Selleks, et snapshotile vastavasse failisüsteemi saaks kasutada traditsiooniliselt, tuleb temast moodustada failisüsteemi kloon, näiteks selliselt

# zfs clone anum/opt-csw@20070331 anum/opt-csw-20070331

Tulemusena tekib failisüsteemi anum/opt-csw-20070331 kasutada nagu tavalist ZFS failisüsteemi.

Lisaks on võimalus algne failisüsteem, st see, mille snapshotist kloon tekitati, asendada klooniga öeldes

 # zfs promote anum/opt-csw-20070331

Toimuvat võiks ette kujutada nii, et keskel on snapshot ja promotemise tulemusena vahetavad allikas ja kloon omavahel kohad, mis mille suhtes moodustatud on.

Kui üldiselt tuleb eemaldada asju järjekorras, 1. kloon, 2. snaphost, 3. allikas, siis promote'imise tulemusena saab ilma klooni eemaldamata allika eemaldada.

Selleks, et kloon kannaks allikaks olnud failisüsteemi nime, tuleb kasutada zfs rename käsku.

Failisüsteemi võrku jagamine

ZFS failisüsteemi saab jagada võrku nii nagu tavalist failisüsteemi NFS serveri abil. Solarise puhul on aga mugav seda teha lihtsalt seades ZFS failisüsteemi sharenfs omaduse väärtuseks 'on'. Näiteks selliselt

# zfs set sharenfs=on anum/export-home

Hõplsasti saab käsu share abil veenduda, kas failisüsteem tekkis NFS serveri poolt välja jagatud failisüsteemide nimekirja, näiteks

# share
- /export/home rw "kasutajate kodukataloogid"  
- /var/log/postgresql   ro   "pg logid" 

Selliselt välja jagatud failisüsteemi kasutamine toimub NFS kliendi poolt samuti kui tavalise NFS serveri poolt välja jagatud failisüsteemi kasutamine.

Alates versioonist Solaris 10 8/07 (u4) saab hõlpsasti jagada võrku iscsi targetina ZFS volume'it, selleks tuleb öelda

# zfs create -V 20g tank/iscsishare
# zfs set shareiscsi=on tank/iscsishare
# iscsitadm list target
Target: tank/iscsishare
    iSCSI Name: iqn.1986-03.com.sun:02:875dc199-fcc0-e9f3-d548-b18bd837c9d5
    Connections: 0

Tõsi, tundub, et ZFS volume'ile vastavale ressursile ei pääse praktiliselt muud moodi ligi kui üle iscsi.

Targeti eemaldamiseks tuleb öelda

# zfs set shareiscsi=off tank/iscsishare
# zfs destroy tank/iscsishare

NFS ja iSCSI protokolliga ZFS ressursi võrku jagamisel leiab aset Solarisele iseloomulikuna, et automaatselt käivitatakse sobivalt seadistatud NFS ja iSCSI targeti deemonid.

Andmete pakkimine

Lülitame sisse pakkimise

# zfs set compression=on zfstest

Info küsimiseks kui hästi info pakkimine toimib on olemas käsk

# zfs get compressratio
NAME     PROPERTY       VALUE    SOURCE
zfstest  compressratio  1.85x    -

Ja mõned testid

Esimesena sql dumbiga

Fail väljaspool ZFSi pakkimata

# du -h /home/jj/KOOLIELU/koolielu.sql
1.1G    /home/jj/KOOLIELU/koolielu.sql

Faíl ZFS sees

# du -h /zfstest/koolielu.sql
346M    /zfstest/koolielu.sql

Vaatame mitmekordne võit tekkis

# zfs get compressratio
NAME     PROPERTY       VALUE    SOURCE
zfstest  compressratio  3.14x    -

DVD puhul 4.4G iso läks 4.3G suuruseks

freebsd ports /usr/ports oli zfs pakituna 253 mega, seejuures on ports originaalse suurusega 488 mega

OpenSolarise masina peal kunagi tehtud katsetused:

DD-ga 1 GiB faili kirjutamiskiirused ZFS-il:

vaikelayout (striped?): 44,5 MB/s

RAIDZ:
vanilla:
	45.5 MB/s
compress=gzip-1
	38,6 MB/s
compress=gzip-1, dedup=on
	37,2 MB/s
compress=on dedup=on
	45,1 MB/s

ZFS failisüsteemi kasutamine Solarise non-global tsoonis

ZFS failisüsteemi kasutamiseks Solarise non-global tsooni juures saab tsooniga seostada kas ZFS failisüsteemi enda või ZFS dataset'i. Viimasel juhul on tsooni administraatoril enam võimalusi vastava ZFS ressursiga tegeleda, nt saab ta moodustada failisüsteeme ja snapshotte tsooni sees.

Näiteks teeme nii, et ZFS failisüsteemi tank/data saab kasutada tsoonis 'tsooninimi' ning ta on seal kataloogi /data alt ligipääsetav

 bash# zfs set mountpoint=legacy tank/data
 bash# zonecfg -z tsooninimi
 ...
 zonecfg:tsoooninimi> add fs
 zonecfg:tsoooninimi:fs> set type=zfs
 zonecfg:tsoooninimi:fs> set special=tank/data
 zonecfg:tsoooninimi:fs> set dir=/data
 zonecfg:tsoooninimi:fs> end

Aga soovides delegeerida non-global tsoonile tank/data kui dataset'i tuleb öelda

 zonecfg:tsooninimi> add dataset
 zonecfg:tsooninimi:dataset> set name=tank/data
 zonecfg:tsooninimi:dataset> end

Tsooni delegeeritud failisüsteemidega ei saa globaalses tsoonis turvakaalutlustega ennem tegeleda, kui tsooni seadistustest on vastav dataset eemaldatud ning lisaks on ka eemaldatud zoned lipp

bash# zfs set zoned=off tank

kus tank on dataset'i nimi.

zpooli versiooni uuendamine

Solarise operatsioonisüsteemi uuendamisel võib juhtuda, et zfs tarkvara toetab uuemat zfs failisüsteemi versiooni kui kasutusel on. Sellest saab teada käsuga

# zpool status export
 pool: export
state: ONLINE
status: The pool is formatted using an older on-disk format.  The pool can
        still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
        pool will no longer be accessible on older software versions.

Nagu arvuti ütleb, versiooni uuendamine toimub selliselt

# zpool upgrade export
This system is currently running ZFS version 3.
Successfully upgraded 'export' from version 2 to version 3

Kõvaketta vahetamine zpoolis

Kõvaketta vahetamiseks zpoolis tuleb öelda

zpool replace -f anum c5t1d0 c5t2d0

mille tulemusena zpoolis anum asendatakse esimene seade teisega. Samal ajal zpooli olekut vaadates saab teada kui kaugel asendamine on

bash# zpool status
 pool: anum
state: ONLINE
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
 scrub: resilver in progress, 12.91% done, 0h11m to go
config:

       NAME           STATE     READ WRITE CKSUM
       anum           ONLINE       0     0     0
         mirror       ONLINE       0     0     0
           c0t4d0     ONLINE       0     0     0
           replacing  ONLINE       0     0     0
             c5t1d0   ONLINE       0     0     0
             c5t2d0   ONLINE       0     0     0

errors: No known data errors

Seadme lisamine pooli ehk mitme erineva pooli kombineerimine üheks

Seadme lisamiseks tuleb öelda, kusjuures poolilt moodustatud failisüsteemid võivad olla samal ajal külge ühendatud

 # zpool add poolinimi seadmenimi

Seejuures peab arvestama, et eemaldada saab vaid redundantseid seadmeid.

Näiteks kui on olemas pool

  NAME          STATE     READ WRITE CKSUM
       tank          ONLINE       0     0     0
         mirror      ONLINE       0     0     0
           c0t0d0s4  ONLINE       0     0     0
           c1t0d0s4  ONLINE       0     0     0
         mirror      ONLINE       0     0     0
           c0t1d0s4  ONLINE       0     0     0
           c1t1d0s4  ONLINE       0     0     0

siis sinna ühe mirroripaari lisamiseks tuleb öelda

 # zpool add tank mirror c0t0d0s3 c1t0d0s3

ning tulemuseks on

  NAME          STATE     READ WRITE CKSUM
       tank          ONLINE       0     0     0
         mirror      ONLINE       0     0     0
           c0t0d0s4  ONLINE       0     0     0
           c1t0d0s4  ONLINE       0     0     0
         mirror      ONLINE       0     0     0
           c0t1d0s4  ONLINE       0     0     0
           c1t1d0s4  ONLINE       0     0     0
         mirror      ONLINE       0     0     0
           c0t0d0s3  ONLINE       0     0     0
           c1t0d0s3  ONLINE       0     0     0

Keerukam näide raid-z peal erienvate raiditüüpidega: Meil on neli ketast da0 da1 da2 da3 mis 250Gb suurused, neli ketast da4 da5 da6 da7 mis 300Gb suurused ning kolm ketasad10 ad4 ad6 mis 160G suurused

selleks, et me ei kaotaks ruumi, kui raid arvutatakse kõige väiksemate ketaste alusel, kuid saaksime nad üheks suureks pooliks kokku kombineerida

# zpool create usr1 raidz da0 da1 da2 da3
# zpool add usr1 raidz da4 da5 da6 da7

Välja näeb tulemus selline

# zpool status
  pool: usr1
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        usr1        ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            da0     ONLINE       0     0     0
            da1     ONLINE       0     0     0
            da2     ONLINE       0     0     0
            da3     ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            da4     ONLINE       0     0     0
            da5     ONLINE       0     0     0
            da6     ONLINE       0     0     0
            da7     ONLINE       0     0     0

Soovides lisada veel 3 ketast 160g suurused tuleb anda käsk

# zpool add usr1 raidz ad10 ad4 ad6
invalid vdev specification
use '-f' to override the following errors:
mismatched replication level: pool uses 4-way raidz and new vdev uses 3-way raidz 

Tegemist on hoiatusega ja seda võib siiski ignoreerida. Peamine mis kannatab on raidi kiiruste pool, see võib pisut langeda.

# zpool status
  pool: home
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        home        ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            da0     ONLINE       0     0     0
            da1     ONLINE       0     0     0
            da2     ONLINE       0     0     0
            da3     ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            da4     ONLINE       0     0     0
            da5     ONLINE       0     0     0
            da6     ONLINE       0     0     0
            da7     ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            ad4     ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad10    ONLINE       0     0     0

errors: No known data errors

Mõned kiirusetestid, kus võrdleme ühesuguseid kombineeritud raidiskeemide jõudlust võrreldes tavalise lahendusega

Kaks nelja kettaga raid-z pooli ühes poolis

#zpool create t1 raidz da0 da1 da2 da3 raidz da4 da5 da6 da7 
#df -h
t1             1.5T      0B    1.5T     0%    /t1
#dd if=/dev/urandom of=/t1/1G bs=1024 count=1024
1073741824 bytes transferred in 19.908234 secs (53934559 bytes/sec)

Kaks nelja kettaga ja üks kolme kettaga raid-z pool ühes poolis

#create -f t2 raidz da0 da1 da2 da3 raidz da4 da5 da6 da7 raidz ad4 ad6 ad10
#df -h
t2             1.8T      0B    1.8T     0%    /t2
#dd if=/dev/urandom of=/t2/1G bs=1024k count=1024
1073741824 bytes transferred in 20.388560 secs (52663937 bytes/sec)

Üs raidz pool kolme kettaga

#zpool create -f t3 raidz ad4 ad6 ad10
#df -h
#t3             291G      0B    291G     0%    /t3
#dd if=/dev/urandom of=/t3/1G bs=1024k count=1024
1073741824 bytes transferred in 24.006931 secs (44726326 bytes/sec)

Pooli import ja eksport

Kui arvutile lisada kõvakettad, mis omavahel moodustavad pooli, siis saab seda tutvustada operatsioonisüsteemile käsuga

test-baas:~# zpool import
  pool: teine_anum
    id: 3176370179574190780
 state: ONLINE
status: The pool is formatted using an older on-disk version.
action: The pool can be imported using its name or numeric identifier, though
        some features will not be available without an explicit 'zpool upgrade'.
        The pool may be active on on another system, but can be imported using
        the '-f' flag.
config:
        teine_anum  ONLINE
          c7t0d0s3  ONLINE
          c6t8d0s3  ONLINE

Ning kui sobib, siis teha kasutatavaks öeldes

# zpool import teine_anum

Kui imporditav pool arvab enda kohta nime, mis on juba kasutusel, siis tuleb öelda

# zpool import teine_anum uus_pooli_nimi

Kusjuures, kui sedasi külge ühendatava pooli sees on kirjeldatud failisüsteemid, mille külgeühenduspunkt ei ole töötavas operatsioonisüsteemis tühi, siis ei toimu külgeühendamist ja saab sarnase teate

# zpool import -f teine_anum          
cannot mount '/data': directory is not empty

Kui aga on plaanist pooli moodustavad kõvakettad süsteemist eemaldada, tuleb öelda

# zpool export anum

Probleemid Solarises

Kui zfs mingil põhjusel nö eksib väga ära, siis võib arvuti bootimine olla vägagi raskendatud. Aitab bootida nullindasse milestone'i, sarnaselt

{0} ok boot /sbus@7,0/SUNW,fas@3,8800000/sd@2,0 -m milestone=none

sisestada juurkasutaja parool ning eemaldada fail

/etc/zfs/zpool.cache

Iseenesest jäävad zfs andmed selle liigutuse tulemusel hävitamata, kuid ilmselt on seal midagi suhteliselt katki ning nad vajavad oskuslikku lähenemist.

Kui pooli moodustamisel vastab süsteem, et

# zpool create tank c6t8d0 c7t0d0 c7t5d0
invalid vdev specification
use '-f' to override the following errors:
/dev/dsk/c6t8d0s0 contains a ufs filesystem.
/dev/dsk/c6t8d0s2 contains a ufs filesystem.
/dev/dsk/c6t8d0s3 is part of exported or potentially active ZFS pool kolmas_anum. Please see zpool(1M).

ning on teada, et võib neid asjaolusid mitte arvestad, siis sobib kasutada create järel võtit -f

bash# zpool create -f tank c6t8d0 c7t0d0 c7t5d0

Kasutamine CSW tarkvaraga majandamisel

CSW paketid paigaldatakse reeglina kataloogi /opt/csw kusjuures paketihaldusega seotud muudatused fikseeritakse kataloogis /var/sadm, st samas kohas koos nt SUNW pakettidega. Kui need kataloogid paigutada ZFS failisüsteemidele, siis on CSW tarkvara muudatuste tegemisel võimalus suhteliselt hõlpsasti kasutades sobivalt ZFS snapshotte neid muudatusi vajadusel tagasi võtta.

Lisaks, /export ja /usr/local kataloogide pidamine ZFS peal võib samuti anda süsteemi haldamisel juurde paindlikkust.

ZFS ohutu katsetamine FreeBSD süsteemis

Soovides vaid zfs'i testida ning kasutada seejuures erinevaid img faile ,et mängida läbi mitmesuguseid raid jms kompressimise lahendusi tuleb toimetad sedasi

Loome testiks isofaili mille haagime külge zfs formaadis kettana

# dd if=/dev/zero of=zfs.img bs=1024k count=11024
5834+0 records in
5833+0 records out
6116343808 bytes transferred in 136.348605 secs (44858133 bytes/sec)

Kontrollime ISO suurust

# du -h zfs.img
5.7G    zfs.img

Haagime selle BSDle dev block seadmena külge

# mdconfig -f zfs.img
md5

Loome tekkinud md5 nimelise block seadme peale zfs pooli

# zpool create zfstest /dev/md5

Vaatame kas kõik läks viisakalt ning seade haagiti failisüseemile automaatselt külge

# df -h
Filesystem         Size    Used   Avail Capacity  Mounted on
/dev/ad0s1a        148G     59G     77G    43%    /
..
zfstest            5.6G      0B    5.6G     0%    /zfstest

ZFS ja Deduplication

TODO

Pakitud failisüsteemi ja quota probleem

ZFS failisüsteem läks üle quota ja pealse seda ei lubanud enam faile kustutada: Disk quota exceeded.

$ rm boxroom-0.6.3.zip
rm: boxroom-0.6.3.zip: Disc quota exceeded

Lahenduseks on kustutatav fail esmalt nullida: http://lists.freebsd.org/pipermail/freebsd-current/2008-January/082615.html

$ ls -larth boxroom-0.6.3.zip
-rw-r--r--  1 laas  wheel   344K Apr 19  2009 boxroom-0.6.3.zip
 
$ cat /dev/null > boxroom-0.6.3.zip
$ rm boxroom-0.6.3.zip

Niiviisi vabastatud 334 kilobaidist piisas, et sai faili enda eemaldada ning seejärel minna suuremate failide kallale

Probleem tekkis tõenäoliselt kuna tegu oli pakitud failisüsteemiga. Sellest tuleb järeldada, et ka kataloogikirjed on pakitud mitte vaid inodede sisu. Ehk mõne baidi muutmine suurendab kataloogi ja nullide kirjutamine teeb faili väiksemaks.

ZFS LInuxil üle ZFS-Fuse

Debiani puhul tuleb installida järgnevad sõltuvused

# apt-get install libaio-dev libattr1-dev libacl1-dev libz-dev libz-dev libfuse-dev libfuse2 scons libssl-dev
# apt-get install bzip2
# apt-get install make

ZFS-Fuse paketi installiks tuleb käivitada järgnevad käsud

Loome kausta kus kompileerida

# cd /usr/src/

Tõmbame algkoodi alla

# wget http://zfs-fuse.net/releases/0.6.9/zfs-fuse-0.6.9.tar.bz2

Pakime lahti

# bunzip2 -d zfs-fuse-0.6.9.tar.bz2
# tar -xf zfs-fuse-0.6.9.tar 

Siseneme kausta ja kompileerime scons käsuga

# cd zfs-fuse-0.6.9
# cd src
# scons

To install, run 'scons install' with appropriate privileges. It will install the binaries in /usr/local/sbin by default.

Jõudluse suurendamine ehk sendfile() funktsioon ja suured failid

Kui tarkvarad nagu Ftp ja Veebiserver peavad jagama ZFS pealt mahukaid faile siis võib tarkvarade puhul mis kasutavad vaikimisi Sendfile() funktsiooni failide edastamise jõudlus drastiliselt langeda. Sendfile on nimelt mõeldud peamiselt paljude väikeste failide serveerimiseks mitte suurte.

Seega suurte ISO failide ja arhiivide liigutamise puhul tasub see tarkvarast välja lülitada.

Vsftps piisab näiteks kui lisada vsftpd.conf faili rida

use_sendfile=NO

Veebiserveri Apache puhul saab seda seadistad isegi täpsemalt kaustade põhiselt

<Directory "/teekond-failideni">
EnableSendfile Off
</Directory>

Probleemide lahendamine käsuga scrub

Probleem: peale pooli nime muutmise exporti ilmnes

Nov 16 01:08:27 ftp root: ZFS: checksum mismatch, zpool=srv path=/dev/ad6 offset=433469928448  size=32768
Nov 16 01:08:27 ftp root: ZFS: checksum mismatch, zpool=srv path=/dev/ad6 offset=433469895680 size=32768
Nov 16 01:08:27 ftp root: ZFS: checksum mismatch, zpool=srv path=/dev/ad6 offset=433469928448 size=32768

Prooviks parandada scrub abil

# zpool scrub srv
# zpool status
  pool: srv
 state: ONLINE
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://www.sun.com/msg/ZFS-8000-4J
 scrub: scrub in progress for 0h0m, 0.00% done, 345h11m to go
config:

        NAME        STATE     READ WRITE CKSUM
        srv         ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            ad6     UNAVAIL      0   467 7.64M  corrupted data
            ad8     ONLINE       0     0     0
            ad10    ONLINE       0     0     0
            ad12    ONLINE       0     0     0
            ad14    ONLINE       0     0     0 

errors: No known data errors

message faili ilmus nüüd

Nov 16 01:08:28 ftp root: ZFS: vdev failure, zpool=srv type=vdev.bad_label

Anname scrubi soovitatud käsu

# zpool replace srv ad6

Mille peale algab asendamine

# zpool status
  pool: srv
 state: DEGRADED
 scrub: scrub in progress for 0h5m, 7.14% done, 1h6m to go
config:

        NAME           STATE     READ WRITE CKSUM
        srv            DEGRADED     0     0     0
          raidz1       DEGRADED     0     0     0
            replacing  DEGRADED     0 2.05K     0
              ad6/old  UNAVAIL      0 7.95K 7.64M  cannot open
              ad6      UNAVAIL      0 2.37K     0  corrupted data
            ad8        ONLINE       0     0     0
            ad10       ONLINE       0     0     0
            ad12       ONLINE       0     0     0
            ad14       ONLINE       0     0     0

errors: No known data errors

Lingid