Changes

From Studiosg
Jump to navigationJump to search
93 bytes added ,  09:38, 29 December 2016
Aggiunto i tag SEO ed i template e aggiornato i collegamenti
Line 1: Line 1: −
Benvenuti nella pagina Wiki di Simone Giustetti.
+
{{header_it|title=StudioSG - Configurare una share su Celerra| keyword={{Template:Keyword_it_nas_san}}| description=Configurare una nuova share su di un NAS della famiglia Celerra di EMC | link_page=en/celerra_share_nfs}}
 
  −
 
  −
Languages: [http://www.giustetti.net/wiki/index.php?title=En/celerra_share_nfs English] - '''Italiano'''
  −
 
  −
----
  −
 
      
== Share NFS su Celerra ==
 
== Share NFS su Celerra ==
Line 35: Line 29:     
Procediamo con la creazione del file system che verrà chiamato come la share per evitare successiva confusione:
 
Procediamo con la creazione del file system che verrà chiamato come la share per evitare successiva confusione:
   '''nas_fs''' -name cvs-exportdb -create size=200G pool=clar_r5_performance
+
   '''nas_fs''' ''-name'' cvs-exportdb ''-create'' size=200G pool=clar_r5_performance
 
Il significato dei parametri utilizzati dovrebbe essere evidente. Attraverso il parametro '''pool''' viene specificata la sorgente dello spazio disco da cui attingere per allocare il file system. Il parametro è utile quando ad un singolo Celerra vengono collegate più sorgenti (pool) da cui pescare. In ogni configurazione dotata di storage dedicato esiste il pool clar_r5_performance, che sta ad indicare dischi performanti in configurazione '''RAID5''' di un Clariion.
 
Il significato dei parametri utilizzati dovrebbe essere evidente. Attraverso il parametro '''pool''' viene specificata la sorgente dello spazio disco da cui attingere per allocare il file system. Il parametro è utile quando ad un singolo Celerra vengono collegate più sorgenti (pool) da cui pescare. In ogni configurazione dotata di storage dedicato esiste il pool clar_r5_performance, che sta ad indicare dischi performanti in configurazione '''RAID5''' di un Clariion.
    
Il nuovo file system verrà creato e formattato prima che venga reso il prompt. Una volta riottenuto il controllo della shell, è necessario '''creare un mount point sul Data Mover prescelto''' ove eseguire il mount:
 
Il nuovo file system verrà creato e formattato prima che venga reso il prompt. Una volta riottenuto il controllo della shell, è necessario '''creare un mount point sul Data Mover prescelto''' ove eseguire il mount:
   '''server_mountpoint''' server_2 -c /cvs-exportdb
+
   '''server_mountpoint''' server_2 ''-c'' /cvs-exportdb
 
Si è nuovamente chiamato il mount point con il nome della share per chiarezza. Il parametro ''server_2'' specifica il Data Mover interessato dall'operazione mentre il parametro ''-c'' è la forma abbreviata di ''-create''.
 
Si è nuovamente chiamato il mount point con il nome della share per chiarezza. Il parametro ''server_2'' specifica il Data Mover interessato dall'operazione mentre il parametro ''-c'' è la forma abbreviata di ''-create''.
    
Si procederà con il mount del file system:
 
Si procederà con il mount del file system:
   '''server_mount''' server_2 -o rw cvs-exportdb /cvs-exportdb
+
   '''server_mount''' server_2 ''-o'' rw cvs-exportdb /cvs-exportdb
 
La sintassi del comando ricalca quella dell'analogo '''mount di Unix / Linux''': mount -o <opzioni> <dispositivo> <mount_point> con l'aggiunta del Data Mover interessato dall'operazione. Nel nostro caso il dispositivo &egrave; ovviamente il file system creato come appoggio per la share. L'opzione ''rw'' specifica la tipologia di accesso al file system: utilizzando rw si garantiscono sia privilegi di scrittura che lettura all'utenza.
 
La sintassi del comando ricalca quella dell'analogo '''mount di Unix / Linux''': mount -o <opzioni> <dispositivo> <mount_point> con l'aggiunta del Data Mover interessato dall'operazione. Nel nostro caso il dispositivo &egrave; ovviamente il file system creato come appoggio per la share. L'opzione ''rw'' specifica la tipologia di accesso al file system: utilizzando rw si garantiscono sia privilegi di scrittura che lettura all'utenza.
   Line 54: Line 48:     
La share &egrave; pronta per essere condivisa con le macchine che dovranno utilizzarla. Dovranno essere lanciati pi&ugrave; comandi di esportazione:
 
La share &egrave; pronta per essere condivisa con le macchine che dovranno utilizzarla. Dovranno essere lanciati pi&ugrave; comandi di esportazione:
   server_export server_2 -Protocol nfs -option rw=db01acvs.pro.nas:db01bcvs.pro.nas /cvs-exportdb
+
   '''server_export''' server_2 ''-Protocol'' nfs ''-option'' rw=db01acvs.pro.nas:db01bcvs.pro.nas /cvs-exportdb
   server_export server_2 -Protocol nfs -option root=db01acvs.pro.nas:db01bcvs.pro.nas /cvs-exportdb
+
   '''server_export''' server_2 ''-Protocol'' nfs ''-option'' root=db01acvs.pro.nas:db01bcvs.pro.nas /cvs-exportdb
   server_export server_2 -Protocol nfs -option access=db01acvs.pro.nas:db01bcvs.pro.nas /cvs-exportdb
+
   '''server_export''' server_2 ''-Protocol'' nfs ''-option'' access=db01acvs.pro.nas:db01bcvs.pro.nas /cvs-exportdb
 
Come per i comandi precedentemente eseguiti il primo parametro: ''server_2'' specifica il Data Mover su cui operare. Attraverso il parametro ''Protocol'' viene specificato al Data Mover quale protocollo utilizzare per l'esportazione dei dati. La prima riga esporta in sola lettura verso tutti i client ed in lettura e scrittura solo per le macchine elencate nel seguito della riga. Il separatore tra client diversi consiste nel carattere ":". Il permesso root riportato nella seconda riga consente ai client di assegnare privilegi di amministratore sulla share. Infine il permesso '''access''' della terza riga consente ai client di eseguire il mount delle share e renderle pertanto fruibili come file system locali.  
 
Come per i comandi precedentemente eseguiti il primo parametro: ''server_2'' specifica il Data Mover su cui operare. Attraverso il parametro ''Protocol'' viene specificato al Data Mover quale protocollo utilizzare per l'esportazione dei dati. La prima riga esporta in sola lettura verso tutti i client ed in lettura e scrittura solo per le macchine elencate nel seguito della riga. Il separatore tra client diversi consiste nel carattere ":". Il permesso root riportato nella seconda riga consente ai client di assegnare privilegi di amministratore sulla share. Infine il permesso '''access''' della terza riga consente ai client di eseguire il mount delle share e renderle pertanto fruibili come file system locali.  
   Line 62: Line 56:     
Per verificare che le share siano correttamente esportate, da uno qualsiasi dei client &egrave; possibile interrogare il server utilizzando il comando '''showmount''' -e <hostname>:
 
Per verificare che le share siano correttamente esportate, da uno qualsiasi dei client &egrave; possibile interrogare il server utilizzando il comando '''showmount''' -e <hostname>:
   showmount -e cl001nas.fe.pro.nas
+
   '''showmount''' ''-e'' cl001nas.fe.pro.nas
    
Per montare la share sulle macchine client &egrave; possibile far ricorso al comando '''mount'''. Nel caso di file system NFS &egrave; necessario specificare la tipologia degli stessi ed alcune opzioni specifiche. La sintassi del comando sara':
 
Per montare la share sulle macchine client &egrave; possibile far ricorso al comando '''mount'''. Nel caso di file system NFS &egrave; necessario specificare la tipologia degli stessi ed alcune opzioni specifiche. La sintassi del comando sara':
   '''mount''' -t '''nfs''' -o <opzioni> <server>:<share> <mountpoint>
+
   '''mount''' ''-t'' nfs ''-o'' <opzioni> <server>:<share> <mountpoint>
 
Ove <server> &egrave; il Fully Qualified Domain Name della macchina che esporta la share o, nel caso il Dns non fosse disponibile, l'equivalente indirizzo IP. Nel nostro caso per montare il file system sui client db01acvs o db01bcvs dovr&agrave; essere lanciato il comando:
 
Ove <server> &egrave; il Fully Qualified Domain Name della macchina che esporta la share o, nel caso il Dns non fosse disponibile, l'equivalente indirizzo IP. Nel nostro caso per montare il file system sui client db01acvs o db01bcvs dovr&agrave; essere lanciato il comando:
   '''mount''' -t '''nfs''' -o rw,bg,hard,intr,nfsvers=3,rsize=8192,wsize=8192,proto=tcp cl001nas.fe.pro.nas:/cvs_exportdb
+
   '''mount''' ''-t'' nfs ''-o'' rw,bg,hard,intr,nfsvers=3,rsize=8192,wsize=8192,proto=tcp cl001nas.fe.pro.nas:/cvs_exportdb
 
   /mnt/db/cvs/export
 
   /mnt/db/cvs/export
   Line 82: Line 76:     
Il comando '''nas_ckpt_schedule''' consente di schedulare le operazioni di snapshot giornalmente, settimanalmente o mensilmente. Si supponga di voler creare uno snapshot con cadenza giornaliera e ritenzione settimanale alle 03:30 di ogni notte; il comando da lanciare sara':
 
Il comando '''nas_ckpt_schedule''' consente di schedulare le operazioni di snapshot giornalmente, settimanalmente o mensilmente. Si supponga di voler creare uno snapshot con cadenza giornaliera e ritenzione settimanale alle 03:30 di ogni notte; il comando da lanciare sara':
   '''nas_ckpt_schedule''' -create cvs_exportdb_daily -filesystem cvs_exportdb -recurrence daily -every 1 -runtimes
+
   '''nas_ckpt_schedule''' ''-create'' cvs_exportdb_daily ''-filesystem'' cvs_exportdb ''-recurrence'' daily ''-every'' 1 ''-runtimes''
   03:30 -keep 7
+
   03:30 ''-keep'' 7
    
Gli snapshot saranno accedibili in sola lettura dall'utenza direttamente sulle macchine su cui &egrave; montata la share. Nella directory principale della share esister&agrave; una directory nascosta chiamata '''.ckpt''' alla quale si potr&agrave; accedere con il comando '''cd'''. La directory .ckpt conterr&agrave; 7 sottodirectory numerate in ordine decrescente. Ognuna delle sottodirectory &egrave; un punto di accesso ad uno snapshot giornaliero contenente un'immagine dei dati congelata alla data di attivazione. Il contenuto delle directory potr&agrave; essere navigato con i consueti comandi di shell: cd, ls, ecc. .
 
Gli snapshot saranno accedibili in sola lettura dall'utenza direttamente sulle macchine su cui &egrave; montata la share. Nella directory principale della share esister&agrave; una directory nascosta chiamata '''.ckpt''' alla quale si potr&agrave; accedere con il comando '''cd'''. La directory .ckpt conterr&agrave; 7 sottodirectory numerate in ordine decrescente. Ognuna delle sottodirectory &egrave; un punto di accesso ad uno snapshot giornaliero contenente un'immagine dei dati congelata alla data di attivazione. Il contenuto delle directory potr&agrave; essere navigato con i consueti comandi di shell: cd, ls, ecc. .
Line 91: Line 85:       −
Link externi
+
Link esterni
    
----
 
----
Line 110: Line 104:  
----
 
----
   −
Languages: [http://www.giustetti.net/wiki/index.php?title=En/celerra_share_nfs English] - '''Italiano'''
+
{{footer_it | link_page=en/celerra_share_nfs}}

Navigation menu