| Both sides previous revision
Previous revision
Next revision
|
Previous revision
|
wiki:guida_di_utilizzo [2022/03/17 18:21] phegde |
wiki:guida_di_utilizzo [2022/05/13 13:29] (current) scopeadmin |
| == Architettura del nodo di archiviazione == | == Architettura del nodo di archiviazione == |
| |
| Il cluster conta 4 nodi Dell R740 dedicati all’archiviazione, ognuno dei quali offre 16 HHD SAS da 16 TB e 8 SSD SATA da 1.9 TB. Ogni nodo è munito di due porte EDR InfiniBand, una delle quali è connessa allo switch InfiniBand Mellanox dedicato all’archiviazione, che garantisce una connessione a 100 Gb/s verso tutti i nodi di calcolo.\\ Un sistema di archiviazione separato da 3 PB è disponibile via Ethernet e viene utilizzato come repository in cui gli utenti possono spostare i dati da e verso i sistemi di archiviazione collegati a InfiniBand quando hanno bisogno di grandi quantità di dati nell'arco di tempo del loro job. Per quanto riguarda la rete Ethernet, ogni nodo conta 2 porte a 25 Gb/s per il collegamento verso il core switch del Data Center. | Il cluster conta 4 nodi Dell R740 dedicati all’archiviazione, ognuno dei quali offre 16 HHD SAS da 16 TB e 8 SSD SATA da 1.9 TB. Ogni nodo è munito di due porte EDR InfiniBand, una delle quali è connessa allo switch InfiniBand Mellanox dedicato all’archiviazione, che garantisce una connessione a 100 Gb/s verso tutti i nodi di calcolo.\\ Mentre i nodi citati sono dedicati alle aree home e scratch degli utenti, sarà poi disponibile un sistema di archiviazione separato da 3 PB. Esso sarà accessibile via Ethernet e potrà essere utilizzato come repository in cui gli utenti potranno spostare i dati da e verso i sistemi di archiviazione collegati a InfiniBand quando avranno bisogno di grandi quantità di dati nell'arco di tempo del loro job. Per quanto riguarda la rete Ethernet, ogni nodo è dotato di 2 porte a 25 Gb/s per il collegamento verso il core switch del Data Center. |
| == Architettura del nodo di calcolo== | == Architettura del nodo di calcolo== |
| |
| Per accedere al sistema (in particolare al suo front-end o UI - User Interface) bisogna collegarsi tramite protocollo SSH all'host ibiscohpc-ui.scope.unina.it. L'accesso per ora è solo in modalità emulazione di terminale non grafico. L'account dell'UI comunque è valido per tutte le risorse del cluster. | Per accedere al sistema (in particolare al suo front-end o UI - User Interface) bisogna collegarsi tramite protocollo SSH all'host ibiscohpc-ui.scope.unina.it. L'accesso per ora è solo in modalità emulazione di terminale non grafico. L'account dell'UI comunque è valido per tutte le risorse del cluster. |
| |
| Esempio di acesso da sistemi unix-like: | Esempio di accesso da sistemi unix-like: |
| |
| ''$ ssh ibiscohpc-ui.scope.unina.it -l <USERNAME>'' | ''$ ssh ibiscohpc-ui.scope.unina.it -l <USERNAME>'' |
| ==== Software disponibile ==== | ==== Software disponibile ==== |
| |
| === COMPILATORI === | L'elenco software è dinamico, aggiornato man mano che altri pacchetti sw vengono installati |
| |
| == INTEL : compilatori e librerie == | === utilities generali per l'uso del sistema === |
| Per utilizzare la suite Intel di compilatori e librerie, bisogna utilizzare (interattivamente o all'interno | |
| di qualunque script in cui essi siano necessari) il comando | ... |
| | |
| | |
| | === sw generale per sviluppo (compilatori, librerie, etc) === |
| | |
| | == Intel OneAPI (suite compilatori, librerie, etc forniti da Intel) == |
| | Per utilizzare la suite Intel di compilatori e librerie, bisogna utilizzare (interattivamente o all'interno di qualunque script in cui essi siano necessari) il comando |
| |
| <code>. /nfsexports/intel/oneapi/setvars.sh </code> | <code>. /nfsexports/intel/oneapi/setvars.sh </code> |
| | |
| | == NVIDIA HPC SDK (suite compilatori, librerie, etc forniti da NVIDIA) == |
| | |
| | * //**Ver 20.10**// - disponibile nella directory '' /nfsexports/SOFTWARE/nvidia/hpc_sdk/ '' |
| | |
| | == OpenMPI == |
| | * //**Ver 4.1.orc5**// - configurata per essere CUDA-AWARE, disponibile nella directory ''/usr/mpi/gcc/openmpi-4.1.0rc5/ '' |
| | |
| | |
| | == Linguaggio Julia == |
| | |
| | * //**Ver 1.6.1**// - interprete disponibile nella directory '' /nfsexports/SOFTWARE/julia-1.6.1 '' |
| | |
| | == Librerie FFTW == |
| | |
| | * //**ver 3.3.10**// - compilata con i compilatori Intel disponibile nella directory '' /nfsexports/SOFTWARE/fftw-3.3.10 '' |
| | |
| | == Ambiente Anaconda 3 == |
| | |
| | * - disponibile nella directory '' /nfsexports/SOFTWARE/anaconda3.OK/ '' |
| | |
| | === pacchetti sw completi per specifiche applicazioni === |
| | |
| | == Matlab == |
| | |
| | * //**Ver R2020b**// - disponibile nella directory '' /nfsexports/SOFTWARE/MATLAB/R2020b/bin '' |
| | |
| | == Quantum ESPRESSO == |
| | |
| | * //**Ver 7.0**// - disponibile nella directory '' /nfsexports/SOFTWARE/qe-7.0 '' |
| | |
| | == OpenFOAM == |
| | * //**Ver 7.0**// - disponibile nella directory '' /nfsexports/SOFTWARE/OpenFOAM-7.0/ '' |
| | |
| | == Rheotool == |
| | * //**Ver 5.0**// - disponibile nella stessa directory di OpenFOAM |
| |
| |
| |