aboutsummaryrefslogtreecommitdiff
path: root/documentation/content/nl/books/handbook/filesystems/_index.adoc
diff options
context:
space:
mode:
Diffstat (limited to 'documentation/content/nl/books/handbook/filesystems/_index.adoc')
-rw-r--r--documentation/content/nl/books/handbook/filesystems/_index.adoc94
1 files changed, 47 insertions, 47 deletions
diff --git a/documentation/content/nl/books/handbook/filesystems/_index.adoc b/documentation/content/nl/books/handbook/filesystems/_index.adoc
index 23468ec7f6..c19bcceaa1 100644
--- a/documentation/content/nl/books/handbook/filesystems/_index.adoc
+++ b/documentation/content/nl/books/handbook/filesystems/_index.adoc
@@ -113,7 +113,7 @@ Zie voor een meer gedetailleerde lijst van aanbevelingen aangaande ZFS-afstellin
Er is een opstartmechanisme dat FreeBSD in staat stelt om ZFS pools te mounten tijdens initialisatie van het systeem. Voer de volgende commando's uit om dit in te stellen:
-[source,bash]
+[source,shell]
....
# echo 'zfs_enable="YES"' >> /etc/rc.conf
# service zfs start
@@ -125,14 +125,14 @@ In het resterende deel van dit document wordt aangenomen dat er drie SCSI-schijv
Voer het commando `zpool` uit om een simpele, niet-redundante ZFS-pool op een enkele schijf aan te maken:
-[source,bash]
+[source,shell]
....
# zpool create example /dev/da0
....
Bestudeer de uitvoer van het commando `df` om de nieuwe pool te zien:
-[source,bash]
+[source,shell]
....
# df
Filesystem 1K-blocks Used Avail Capacity Mounted on
@@ -144,7 +144,7 @@ example 17547136 0 17547136 0% /example
In deze uitvoer wordt duidelijk dat de `example`-pool niet alleen is aangemaakt, maar ook direct _gemount_ is. Hij is ook toegankelijk, net als een gewoon bestandssysteem; er kunnen bestanden op worden aangemaakt en gebruikers kunnen er op rondkijken zoals in het volgende voorbeeld:
-[source,bash]
+[source,shell]
....
# cd /example
# ls
@@ -158,7 +158,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 23:12 ..
Helaas benut deze pool nog geen ZFS-mogelijkheden. Maak een bestandssysteem aan op deze pool en activeer er compressie op:
-[source,bash]
+[source,shell]
....
# zfs create example/compressed
# zfs set compression=gzip example/compressed
@@ -168,14 +168,14 @@ Helaas benut deze pool nog geen ZFS-mogelijkheden. Maak een bestandssysteem aan
De compressie kan nu worden uitgeschakeld met:
-[source,bash]
+[source,shell]
....
# zfs set compression=off example/compressed
....
Voer het volgende commando uit om het bestandssysteem te unmounten, en controleer dat daarna met `df`:
-[source,bash]
+[source,shell]
....
# zfs umount example/compressed
# df
@@ -188,7 +188,7 @@ example 17547008 0 17547008 0% /example
Mount het bestandssysteem opnieuw om het weer toegankelijk te maken en controleer met `df`:
-[source,bash]
+[source,shell]
....
# zfs mount example/compressed
# df
@@ -202,7 +202,7 @@ example/compressed 17547008 0 17547008 0% /example/compressed
De pool en het bestandssysteem zijn ook zichtbaar in de uitvoer van `mount`:
-[source,bash]
+[source,shell]
....
# mount
/dev/ad0s1a on / (ufs, local)
@@ -215,7 +215,7 @@ example/compressed on /example/compressed (zfs, local)
Zoals is te zien kunnen ZFS-bestandssystemen, nadat ze zijn gecreëerd, net als gewone bestandssystemen worden gebruikt; er zijn echter ook vele andere mogelijkheden beschikbaar. In het volgende voorbeeld wordt er een nieuw bestandssysteem `data` gecreëerd. Er zullen belangrijke bestanden op worden bewaard, dus het bestandssysteem wordt zodanig ingesteld dat het twee kopieën van ieder gegevensblok opslaat:
-[source,bash]
+[source,shell]
....
# zfs create example/data
# zfs set copies=2 example/data
@@ -223,7 +223,7 @@ Zoals is te zien kunnen ZFS-bestandssystemen, nadat ze zijn gecreëerd, net als
Het is nu mogelijk om het gegevens- en ruimtegebruik te bekijken door `df` opnieuw te draaien:
-[source,bash]
+[source,shell]
....
# df
Filesystem 1K-blocks Used Avail Capacity Mounted on
@@ -237,7 +237,7 @@ example/data 17547008 0 17547008 0% /example/data
Merk op dat ieder bestandssysteem in de pool dezelfde hoeveelheid vrije ruimte heeft. Dit is de reden dat `df` steeds wordt gebruikt tussen de voorbeelden door, om te laten zien dat de bestandssystemen slechts zoveel ruimte gebruiken als ze nodig hebben en allemaal putten uit dezelfde pool. Het ZFS bestandssysteem elimineert concepten als volumes en partities, en staat verschillende bestandssystemen toe om in dezelfde pool te bestaan. Verwijder nu de bestandssystemen en verwijder daarna de pool, omdat deze niet meer nodig zijn:
-[source,bash]
+[source,shell]
....
# zfs destroy example/compressed
# zfs destroy example/data
@@ -250,7 +250,7 @@ Schijven gaan slechter werken en begeven het, een onvermijdelijke eigenschap. Wa
Zoals eerder opgemerkt wordt in deze sectie aangenomen dat er drie SCSI-schijven bestaan als de apparaten [.filename]#da0#, [.filename]#da1# en [.filename]#da2# (of [.filename]#ad0# en hoger als IDE-schijven worden gebruikt). Voer het volgende commando uit om een RAID-Z-pool te creëren:
-[source,bash]
+[source,shell]
....
# zpool create storage raidz da0 da1 da2
....
@@ -262,14 +262,14 @@ Sun(TM) raadt aan om tussen de drie en negen schijven te gebruiken voor een RAID
De `storage` zpool zou gecreëerd moeten zijn. Dit kan worden geverifieerd met de man:mount[8] en man:df[1] commando's zoals eerder. Er kunnen meer schijfapparaten worden toegewezen door ze aan het einde van de bovenstaande lijst toe te voegen. Maak een nieuw bestandssysteem in de pool, genaamd `home`, waar op den duur de gebruikersbestanden geplaatst zullen worden:
-[source,bash]
+[source,shell]
....
# zfs create storage/home
....
Het is nu mogelijk om compressie in te schakelen en extra kopieën te bewaren van de gebruikersmappen en -bestanden. Dit kan net als eerder worden bewerkstelligd door de volgende commando's uit te voeren:
-[source,bash]
+[source,shell]
....
# zfs set copies=2 storage/home
# zfs set compression=gzip storage/home
@@ -277,7 +277,7 @@ Het is nu mogelijk om compressie in te schakelen en extra kopieën te bewaren va
Kopieer, om dit als de nieuwe home-map voor gebruikers in te stellen, de gebruikersgegevens naar deze map en creëer de benodigde links:
-[source,bash]
+[source,shell]
....
# cp -rp /home/* /storage/home
# rm -rf /home /usr/home
@@ -289,42 +289,42 @@ De gebruikersgegevens zouden nu op het nieuw aangemaakte [.filename]#/storage/ho
Probeer een snapshot te maken dat later weer hersteld kan worden:
-[source,bash]
+[source,shell]
....
# zfs snapshot storage/home@08-30-08
....
Merk op dat de snapshot-optie alleen een echt bestandssysteem vastlegt, geen mappen of bestanden. Het `@`-karakter wordt gebruikt als scheidingsteken tussen de naam van het bestandssysteem of de naam van het volume. Wanneer de home-map van een gebruiker wordt weggegooid, kan deze worden hersteld met:
-[source,bash]
+[source,shell]
....
# zfs rollback storage/home@08-30-08
....
Voer `ls` in de [.filename]#.zfs/snapshot# directory van het bestandssysteem uit om een lijst van alle beschikbare snapshots te krijgen. Voer, om bijvoorbeeld het zojuist gemaakte snapshot te zien, het volgende commando uit:
-[source,bash]
+[source,shell]
....
# ls /storage/home/.zfs/snapshot
....
Het is mogelijk om een script te schrijven dat maandelijks een snapshot van de gebruikersgegevens maakt; na verloop van tijd kunnen snapshots echter een grote hoeveelheid schrijfruimte in beslag nemen. Het vorige snapshot kan worden verwijderd met het volgende commando:
-[source,bash]
+[source,shell]
....
# zfs destroy storage/home@08-30-08
....
Na al dit testen is er geen reden om [.filename]#/storage/home# in zijn huidige staat nog te bewaren. Maak er het echte [.filename]#/home# bestandssysteem van:
-[source,bash]
+[source,shell]
....
# zfs set mountpoint=/home storage/home
....
Het uitvoeren van de commando's `df` en `mount` laat zien dat het systeem ons bestandssysteem nu als de echte [.filename]#/home# behandelt:
-[source,bash]
+[source,shell]
....
# mount
/dev/ad0s1a on / (ufs, local)
@@ -343,7 +343,7 @@ storage/home 26320512 0 26320512 0% /home
Hiermee is de RAID-Z configuratie compleet. Voer het volgende commando uit om status-updates van de gecreëerde bestandssystemen te krijgen tijdens het draaien van de nachtelijke man:periodic[8]:
-[source,bash]
+[source,shell]
....
# echo 'daily_status_zfs_enable="YES"' >> /etc/periodic.conf
....
@@ -352,21 +352,21 @@ Hiermee is de RAID-Z configuratie compleet. Voer het volgende commando uit om st
Iedere software-RAID heeft een methode om zijn `status` te inspecteren. ZFS is geen uitzondering. De status van RAID-Z-apparaten kan worden geïnspecteerd met het volgende commando:
-[source,bash]
+[source,shell]
....
# zpool status -x
....
Als alle pools in orde zijn en alles is normaal, dan wordt het volgende bericht weergegeven:
-[source,bash]
+[source,shell]
....
all pools are healthy
....
Als er een probleem is, misschien een schijf die offine is gegaan, dan wordt de status van de pool weergegeven en dat zal er als volgt uitzien:
-[source,bash]
+[source,shell]
....
pool: storage
state: DEGRADED
@@ -390,21 +390,21 @@ errors: No known data errors
Hier staat dat het apparaat offline is gezet door de beheerder. Dat is waar voor dit specifieke voorbeeld. Om de schijf offline te zetten werd het volgende commando gebruikt:
-[source,bash]
+[source,shell]
....
# zpool offline storage da1
....
Het is nu mogelijk om de schijf [.filename]#da1# te vervangen nadat het systeem uitgeschakeld is. Zodra het systeem weer opgestart is, kan het volgende commando worden uitgevoerd om de schijf te vervangen:
-[source,bash]
+[source,shell]
....
# zpool replace storage da1
....
Nu kan de status opnieuw geïnspecteerd worden, dit keer zonder de `-x` vlag, om de statusinformatie op te vragen:
-[source,bash]
+[source,shell]
....
# zpool status storage
pool: storage
@@ -428,21 +428,21 @@ Zoals te zien in dit voorbeeld lijkt alles normaal te zijn.
Zoals eerder opgemerkt gebruikt ZFS `checksums` om de integriteit van opgeslagen gegevens te verifiëren. Ze worden automatisch ingeschakeld bij het creëeren van bestandssystemen en kunnen worden uitgeschakeld door middel van het volgende commando:
-[source,bash]
+[source,shell]
....
# zfs set checksum=off storage/home
....
Dit is echter geen verstandig idee, omdat checksums zeer weinig opslagruimte innemen en nuttiger zijn wanneer ze zijn ingeschakeld. Het lijkt daarnaast ook geen merkbare invloed op de prestaties te hebben wanneer ze zijn ingeschakeld. Wanneer ze aanstaan is het mogelijk om ZFS gegevensintegriteit te laten controleren door middel van checksum-verificatie. Dit proces staat bekend als "scrubbing". Voer het volgende commando uit om de gegevensintegriteit van de `storage`-pool te controleren:
-[source,bash]
+[source,shell]
....
# zpool scrub storage
....
Dit proces kan, afhankelijk van de hoeveelheid opgeslagen gegevens, een aanzienlijke hoeveelheid tijd in beslag nemen. Het is daarnaast ook zeer I/O-intensief, zozeer dat slechts één van deze operaties tegelijkertijd uitgevoerd kan worden. Nadat de scrub is voltooid wordt de status bijgewerkt en kan deze worden bekeken door een statusaanvraag te doen:
-[source,bash]
+[source,shell]
....
# zpool status storage
pool: storage
@@ -479,7 +479,7 @@ De refquota, `refquota=grootte`, beperkt de hoeveelheid ruimte die een gegevensv
Gebruik het volgende om een algemeen quotum van 10 GB voor [.filename]#/home/storage/bob# af te dwingen:
-[source,bash]
+[source,shell]
....
# zfs set quota=10G storage/home/bob
....
@@ -493,14 +493,14 @@ Gebruikersquota beperken de hoeveelheid ruimte die door de aangegeven gebruiker
Gebruik het volgende om bijvoorbeeld een quotum van 50 GB voor een gebruiker _jan_ af te dwingen:
-[source,bash]
+[source,shell]
....
# zfs set userquota@jan=50G
....
Gebruik in plaats hiervan, om het quotum te verwijderen of er zeker van te zijn dat er geen is ingesteld:
-[source,bash]
+[source,shell]
....
# zfs set userquota@jan=none
....
@@ -511,14 +511,14 @@ Groepsquota beperken de hoeveelheid ruimte die de gespecificeerde gebruikersgroe
Gebruik om het quotum voor de groep _eerstegroep_ op 50 GB in te stellen:
-[source,bash]
+[source,shell]
....
# zfs set groupquota@eerstegroep=50G
....
Gebruik in plaats hiervan, om het quotum voor de groep _eerstegroep_ te verwijderen of om er voor te zorgen dat deze niet is ingesteld:
-[source,bash]
+[source,shell]
....
# zfs set groupquota@eerstegroep=none
....
@@ -529,7 +529,7 @@ Het deelcommando `zfs userspace` geeft de hoeveelheid ruimte weer die door elke
Gebruik het volgende om de quota voor [.filename]#storage/home/bob# weer te geven, als u de juiste privileges heeft of `root` bent:
-[source,bash]
+[source,shell]
....
# zfs get quota storage/home/bob
....
@@ -544,14 +544,14 @@ Reserveringen kunnen in allerlei situaties nuttig zijn, bijvoorbeeld voor het pl
Het algemene formaat van de eigenschap `reservation` is `reservation=grootte`, dus gebruik het onderstaande commando om een reservering van 10 GB op [.filename]#storage/home/bob# te plaatsen:
-[source,bash]
+[source,shell]
....
# zfs set reservation=10G storage/home/bob
....
Gebruik, om te controleren of er geen reservatie is geplaatst of om een reservatie te verwijderen:
-[source,bash]
+[source,shell]
....
# zfs set reservation=none storage/home/bob
....
@@ -560,7 +560,7 @@ Het zelfde principe kan worden toegepast op de eigenschap `refreservation` om ee
Gebruik één van de volgende commando's om te kijken of er een reservatie of refreservation bestaat op [.filename]#storage/home/bob#:
-[source,bash]
+[source,shell]
....
# zfs get reservation storage/home/bob
# zfs get refreservation storage/home/bob
@@ -579,14 +579,14 @@ Het stuurprogramma man:ext2fs[5] stelt de FreeBSD-kernel in staat om ext2 bestan
Laad ten eerste de kernelmodule:
-[source,bash]
+[source,shell]
....
# kldload ext2fs
....
Koppel daarna een man:ext2fs[5]-volume aan dat zich op [.filename]#/dev/ad1s1# bevindt:
-[source,bash]
+[source,shell]
....
# mount -t ext2fs /dev/ad1s1 /mnt
....
@@ -597,7 +597,7 @@ Het X-bestandssysteem, XFS, is origineel geschreven door SGI voor het besturings
Om XFS als een kernelmodule te laden:
-[source,bash]
+[source,shell]
....
# kldload xfs
....
@@ -606,7 +606,7 @@ Het stuurprogramma man:xfs[5] stelt de FreeBSD-kernel in staat om XFS-bestandssy
Om een man:xfs[5]-volume wat op [.filename]#/dev/ad1s1# aan te koppelen:
-[source,bash]
+[source,shell]
....
# mount -t xfs /dev/ad1s1 /mnt
....
@@ -623,14 +623,14 @@ Het stuurprogramma voor ReiserFS stelt de FreeBSD-kernel momenteel in staat om R
Laad ten eerste eerst de kernelmodule:
-[source,bash]
+[source,shell]
....
# kldload reiserfs
....
Om ten tweede een ReiserFS-volume dat zich op [.filename]#/dev/ad1s1# aan te koppelen:
-[source,bash]
+[source,shell]
....
# mount -t reiserfs /dev/ad1s1 /mnt
....