CEMEF CLUSTER

2016 coeurs de calcul interconnectés par un réseau à très haut débit et faible latence

  • 1 serveur « frontal » front-in1-cluster [2013]
    • Bullx R423 Intel Xeon E5-2630v2 2*8 cores 2.6 GHz, 64 Go Ram
    • administration du cluster et connexion des utilisateurs
  • 1 serveur « disque » nas-in1-cluster [2013] ⇒ 28 To utiles
    • Bullx R423 Intel Xeon E5-2630v2 2*8 cores 2.6 GHz, 64 Go Ram
    • Une baie de disques LSI
    • serveur NFS pour tous les nodes et Samba pour les PC
  • 16 nœuds de calcul à 20 coeurs n-in1 à n-in16 [2013] ⇒ 320 coeurs
    • Bullx R424 Intel Xeon E5-2670v2 2*10 cores 2.5 GHz
    • n-in1 à n-in8 avec 64 Go Ram et n-in9 à n-in16 avec 128 Go de RAM
    • 8 instructions/cycle en flottant double précision
    • 320 W/nœud
  • 24 nœuds de calcul à 24 coeurs n-in17 à n-in40 [02/2016] ⇒ 576 coeurs
    • Bullx R424 Intel Xeon E5-2680v3 2*12 cores 2.5 GHz
    • n-in17 à n-in38 avec 64 Go de RAM et n-in39 à n-in40 avec 128 Go de RAM
    • 8 instructions/cycle en flottant double précision
    • 450 W/nœud
  • 16 nœuds de calcul à 28 coeurs n-in41 à n-in56 [07/2016] ⇒ 448 coeurs
    • Bullx R424 Intel Xeon E5-2680v4 2*14 cores 2.4 GHz, 64 Go de Ram
    • 16 instructions/cycle en flottant double précision
    • 450 W/nœud
  • 24 nœuds de calcul à 28 coeurs n-in57 à n-in80 [8 nodes 11/2017 et 16 nodes 02/2018] ⇒ 672 coeurs
    • Bullx R424 Intel Xeon E5-2680v4 2*14 cores 2.4 GHz, 128 Go de Ram
    • 16 instructions/cycle en flottant double précision
    • 450 W/nœud
  • réseau calcul dédié – rapide et faible latence pour les échanges MPI et R/W des datas via NFS
    • InfiniBand QDR 40 Gb/s entre les nodes numérotés de 1 à 16 (via 1 commutateur IB de 36 ports reliés aux autres commutateurs par 12 + 6 liens)
    • InfiniBand QDR 40 Gb/s entre les nodes numérotés de 17 à 40 (via 1 commutateur IB de 36 ports reliés aux autres commutateurs par 12 liens)
    • Infiniband FDR 56 Gb/s entre les nodes numérotés de 41 à 56 (via 1 commutateur IB de 36 ports reliés aux autres commutateurs par 6 liens)
    • Infiniband FDR 56 Gb/s entre les nodes numérotés de 57 à 80 (via 1 commutateur IB de 36 ports reliés aux autres commutateurs par 6 liens)
  • 1 réseau Ethernet avec 3 commutateurs
    • 1 Gb/s entre réseau Cemef et les frontaux ; 100 Mb/s pour administration et management à distance
  • Estimation des performances théoriques : 6,4 TFLOPS + 11,5 TFLOPS + 17,2 TFLOPS + 25,8 TFLOPS
  • Estimation des consommations théoriques : 5.1 KW + 10.8 KW + 7.2 KW + 10.8 KW