issue100:linux_in_industry
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
issue100:linux_in_industry [2015/09/04 16:21] – lejimi | issue100:linux_in_industry [2015/09/05 09:04] (Version actuelle) – fcm_-_ekel | ||
---|---|---|---|
Ligne 5: | Ligne 5: | ||
From over a dozen, only a few replied. Here’s my report from the information I received.** | From over a dozen, only a few replied. Here’s my report from the information I received.** | ||
- | Linux dans l' | + | Un bref aperçu de |
- | Pour ce centième numéro | + | Pour ce centième |
+ | |||
+ | Sur plus d'une douzaine, seules | ||
**Amazon | **Amazon | ||
Ligne 23: | Ligne 25: | ||
Amazon | Amazon | ||
- | La plus connue des utilisations qu' | + | La plus connue des utilisations qu' |
- | AWS fonctionne sous Amazon Linux AMI qui est une version de Linux supportée par Amazon pour être utilisée sur Amazon Elastic Compute Cloud (Amazon EC2). La distribution est maintenue par AWS et est gratuite pour les utilisateur | + | AWS fonctionne sous Amazon Linux AMI qui est une version de Linux supportée par Amazon pour être utilisée sur Amazon Elastic Compute Cloud (Amazon EC2). La distribution est maintenue par AWS et est gratuite pour les utilisateurs |
Amazon Linux AMI utilise YUM pour les paquets et les dépôts et est une distribution légère (pour autant que je puisse le dire). | Amazon Linux AMI utilise YUM pour les paquets et les dépôts et est une distribution légère (pour autant que je puisse le dire). | ||
Ligne 48: | Ligne 50: | ||
L'EPFL (École Polytechnique Fédérale de Lausanne) utilise Linux partout, depuis des réseaux importants jusqu' | L'EPFL (École Polytechnique Fédérale de Lausanne) utilise Linux partout, depuis des réseaux importants jusqu' | ||
- | Pour avoir fait joujou avec des quadricopters | + | Pour avoir fait joujou avec des quadricoptères |
Le drone AirBurr est encore plus impressionnant : | Le drone AirBurr est encore plus impressionnant : | ||
Ligne 111: | Ligne 113: | ||
• RAM totale : 14 To ; | • RAM totale : 14 To ; | ||
- | • stockage : 200 To ; | + | • stockage : 200 To. |
Le cluster est composé de : | Le cluster est composé de : | ||
Ligne 117: | Ligne 119: | ||
• un frontal ; | • un frontal ; | ||
- | • un nœud maître dédié à l' | + | • un nœud maître dédié à l' |
• 424 nœuds de calcul, chacun avec : | • 424 nœuds de calcul, chacun avec : | ||
- | • 2 processeurs Sandy Bridge cadencés à 2,2 GHz, avec 8 cœurs chacun | + | |
- | + | ||
- | • 32 Go de RAM, | + | • 32 Go de RAM |
+ | |||
+ | • pour un total de 6 784 cœurs | ||
• connexion QDR InfiniBand 2:1 ; | • connexion QDR InfiniBand 2:1 ; | ||
Ligne 154: | Ligne 158: | ||
• un frontal ; | • un frontal ; | ||
- | • un nœud dédié à l' | + | • un nœud dédié à l' |
• 50 nœuds standards avec 64 Go de RAM chacun ; | • 50 nœuds standards avec 64 Go de RAM chacun ; | ||
Ligne 186: | Ligne 190: | ||
• 64 GB of DDR4 RAM | • 64 GB of DDR4 RAM | ||
- | • 16 GPU accelerated nodes, each with 4 K40 NVIDIA | + | • 16 GPU accelerated nodes, each with 4 K40 nVidia |
• 8 large memory nodes, each with 256 GB of RAM | • 8 large memory nodes, each with 256 GB of RAM | ||
• 2 NUMA nodes, each with 4 processors and 512 GB of RAM | • 2 NUMA nodes, each with 4 processors and 512 GB of RAM | ||
Ligne 214: | Ligne 218: | ||
• 376 nœuds de calcul, chacun embarquant : | • 376 nœuds de calcul, chacun embarquant : | ||
- | • 2 processeurs Sandy Bridge 8 cœurs cadencés à 2,6 GHz, | + | • 2 processeurs Sandy Bridge |
• 64 Go de RAM DDR3, | • 64 Go de RAM DDR3, | ||
- | • 144 nœuds de calcul | + | • 144 nœuds de calcul |
• 2 processeurs Haswell 12 cœurs cadencés à 2,5 GHz, | • 2 processeurs Haswell 12 cœurs cadencés à 2,5 GHz, | ||
Ligne 258: | Ligne 262: | ||
** | ** | ||
- | Blue-Gene/Q | + | BlueGene/Q |
Ce mastodonte est le super-ordinateur Lemanicus BG/Q. Ses caractéristiques vont vous faire pleurer d' | Ce mastodonte est le super-ordinateur Lemanicus BG/Q. Ses caractéristiques vont vous faire pleurer d' | ||
Ligne 282: | Ligne 286: | ||
• système de fichiers parallèle GPFS. | • système de fichiers parallèle GPFS. | ||
- | Si vous voulez vraiment approcher de plus près la bête je vous laisse télécharger et parcourir son guide du débutant : | + | Si vous voulez vraiment approcher de plus près la bête, je vous laisse télécharger et parcourir son guide du débutant : |
- | ** | + | |
- | I’ll let Vicky from the EPFL tell you more about them: | + | **I’ll let Vicky from the EPFL tell you more about them: |
“As standard HPC platforms, our clusters run a mix of Open-Source and proprietary software. There are some specific drivers for the InfiniBand network and the GPUs (for the nodes with GPUs), and proprietary compilers and parallelization libraries (Intel). Of course, we also provide GNU compilers and Open Source parallelization libraries, so the users who want to, can use free software on our machines. Actually you can go fully Open Source on the supercomputers. But, as I say, those are beowulf clusters following the beowulf philosophy: commodity hardware, free and open source software.”** | “As standard HPC platforms, our clusters run a mix of Open-Source and proprietary software. There are some specific drivers for the InfiniBand network and the GPUs (for the nodes with GPUs), and proprietary compilers and parallelization libraries (Intel). Of course, we also provide GNU compilers and Open Source parallelization libraries, so the users who want to, can use free software on our machines. Actually you can go fully Open Source on the supercomputers. But, as I say, those are beowulf clusters following the beowulf philosophy: commodity hardware, free and open source software.”** | ||
Ligne 291: | Ligne 294: | ||
Je laisse maintenant la parole à Vicky, de l' | Je laisse maintenant la parole à Vicky, de l' | ||
- | « En tant que plateformes HPC standards, nos clusters fonctionnent avec un mélange d'Open Source et de logiciels propriétaires. Il y a des pilotes spécifiques pour le réseau InfiniBand et pour les processeurs graphiques (pour les nœuds qui en comportent), | + | « En tant que plateformes HPC standards, nos clusters fonctionnent avec un mélange d'Open Source et de logiciels propriétaires. Il y a des pilotes spécifiques pour le réseau InfiniBand et pour les processeurs graphiques (pour les nœuds qui en comportent), |
**What’s a Beowolf cluster? Basically: | **What’s a Beowolf cluster? Basically: | ||
Ligne 315: | Ligne 318: | ||
• une utilisation de logiciels gratuits et Open Source ; | • une utilisation de logiciels gratuits et Open Source ; | ||
- | • des nœuds mis en réseau via un petit LAN TCP/IP, et munis de programmes permettant le partage des calculs entre eux ; | + | • des nœuds mis en réseau via un petit LAN TCP/IP et munis de programmes permettant le partage des calculs entre eux ; |
• un comportement ressemblant plus à celui d'une machine unique qu'à celui d'un grand nombre de stations de travail ; | • un comportement ressemblant plus à celui d'une machine unique qu'à celui d'un grand nombre de stations de travail ; | ||
Ligne 323: | Ligne 326: | ||
• une reconnaissance par le réseau comme entité unique ; | • une reconnaissance par le réseau comme entité unique ; | ||
- | • des nœuds | + | • des nœuds |
• une rapidité accrue par la simple adjonction de nœuds. | • une rapidité accrue par la simple adjonction de nœuds. | ||
Ligne 338: | Ligne 341: | ||
Certains utilisateurs accèdent au cluster du CVLAB (une division de l' | Certains utilisateurs accèdent au cluster du CVLAB (une division de l' | ||
- | Le cluster | + | Le cluster |
• 6 x IBM x3650 M3 | • 6 x IBM x3650 M3 | ||
Ligne 356: | Ligne 359: | ||
I’m sure, after all that, your head is spinning. Speaking of spinning…** | I’m sure, after all that, your head is spinning. Speaking of spinning…** | ||
- | La plupart des enseignants | + | La plupart des étudiants |
- | Grand merci à Vicky et Axel pour ces informations. | + | Un grand merci à Vicky et Axel pour ces informations. |
Après cela, je suis sûr que vous avez la tête qui tourne. Et puisqu' | Après cela, je suis sûr que vous avez la tête qui tourne. Et puisqu' | ||
- | ** | ||
- | CERN | + | **CERN |
The European Organization for Nuclear Research, or CERN, is probably most famous for the Large Hadron Collider (LHC). Every second, 600 million particles collide within the LHC. Every year physicists sift through 30 petabytes (more on them later) of data. | The European Organization for Nuclear Research, or CERN, is probably most famous for the Large Hadron Collider (LHC). Every second, 600 million particles collide within the LHC. Every year physicists sift through 30 petabytes (more on them later) of data. | ||
Ligne 375: | Ligne 377: | ||
Le CERN utilise différentes distributions Linux sur environ 25 000 serveurs et machines de bureau répartis sur ses deux sites de Genève et Budapest. La majorité utilisent Scientific Linux CERN 5 et 6 (basés sur Red Hat Enterprise Linux 5 et 6) ainsi que quelques distributions Red Had Enterprise Linux. Les nouvelles installations commencent à utiliser CERN CentOS 7 (CC7). | Le CERN utilise différentes distributions Linux sur environ 25 000 serveurs et machines de bureau répartis sur ses deux sites de Genève et Budapest. La majorité utilisent Scientific Linux CERN 5 et 6 (basés sur Red Hat Enterprise Linux 5 et 6) ainsi que quelques distributions Red Had Enterprise Linux. Les nouvelles installations commencent à utiliser CERN CentOS 7 (CC7). | ||
- | ** | + | **A wide range of applications are used, including standard infrastructure components such as web services or development build services, but the bulk of the resources are used to support physics analysis and simulation by the 11,000 physicists who use the facilities at CERN. |
- | A wide range of applications are used, including standard infrastructure components such as web services or development build services, but the bulk of the resources are used to support physics analysis and simulation by the 11,000 physicists who use the facilities at CERN. | + | |
Open source software is used extensively at CERN – from the infrastructure such as Linux and OpenStack, through to the applications written by the physicists themselves to analyse the 27 PB/year (PB = petabyte = 1,000 terabytes, or 1,000,000 gigabytes) which is produced by the Large Hadron Collider.** | Open source software is used extensively at CERN – from the infrastructure such as Linux and OpenStack, through to the applications written by the physicists themselves to analyse the 27 PB/year (PB = petabyte = 1,000 terabytes, or 1,000,000 gigabytes) which is produced by the Large Hadron Collider.** | ||
Ligne 382: | Ligne 383: | ||
Une large gamme d' | Une large gamme d' | ||
- | L'Open Source est largement utilisé au CERN, depuis l' | + | L'Open Source est largement utilisé au CERN, depuis l' |
**There are around 11,000 ‘white box’ servers in the CERN computer centres with between 8 and 32 cores and an average of 2 GB/core. They are generally connected using 1GB/s Ethernet. These servers are part of the Worldwide LHC grid which runs over 2 million jobs per day. | **There are around 11,000 ‘white box’ servers in the CERN computer centres with between 8 and 32 cores and an average of 2 GB/core. They are generally connected using 1GB/s Ethernet. These servers are part of the Worldwide LHC grid which runs over 2 million jobs per day. | ||
Ligne 412: | Ligne 413: | ||
Super-ordinateurs | Super-ordinateurs | ||
- | Il est inutile de dire que la quasi-totalité des super-ordinateurs du monde fonctionnent grâce à Linux, sous une forme ou sous une autre. Le Top 500 est un tableau qui recense les machines les plus puissantes. Depuis 1993 ce classement est publié deux fois par an. | + | Il est inutile de dire que la quasi-totalité des super-ordinateurs du monde fonctionnent grâce à Linux, sous une forme ou sous une autre. Le TOP500 |
En novembre 2014 le Top 5 était : | En novembre 2014 le Top 5 était : |
issue100/linux_in_industry.1441376465.txt.gz · Dernière modification : 2015/09/04 16:21 de lejimi