issue100:linux_in_industry
Différences
Ci-dessous, les différences entre deux révisions de la page.
Prochaine révision | Révision précédente | ||
issue100:linux_in_industry [2015/08/30 15:33] – créée auntiee | issue100:linux_in_industry [2015/09/05 09:04] (Version actuelle) – fcm_-_ekel | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
- | Quick Look At Linux in Industry | + | **Quick Look At Linux in Industry |
For the big one-hundred, | For the big one-hundred, | ||
- | From over a dozen, only a few replied. Here’s my report from the information I received. | + | From over a dozen, only a few replied. Here’s my report from the information I received.** |
- | Amazon | + | Un bref aperçu de Linux dans l' |
+ | |||
+ | Pour ce centième grandissime numéro, j'ai pensé faire quelque chose d'un peu différent. J'ai envoyé un courriel à une douzaine de structures utilisant Linux à grande échelle - entreprises, | ||
+ | |||
+ | Sur plus d'une douzaine, seules quelques-unes ont répondu. Voici le récapitulatif de leurs réponses. | ||
+ | |||
+ | **Amazon | ||
Amazon’s most well-known use of Linux is its Amazon Web Services (AWS - http:// | Amazon’s most well-known use of Linux is its Amazon Web Services (AWS - http:// | ||
Ligne 15: | Ligne 21: | ||
The source code for the distro can be viewed using the get_reference_source command line tool which is provided. | The source code for the distro can be viewed using the get_reference_source command line tool which is provided. | ||
- | For those of you looking to install Amazon Linux AMI on your laptop, it’s available for use only inside of Amazon EC2. | + | For those of you looking to install Amazon Linux AMI on your laptop, it’s available for use only inside of Amazon EC2.** |
- | EPFL | + | Amazon |
+ | |||
+ | La plus connue des utilisations qu' | ||
+ | |||
+ | AWS fonctionne sous Amazon Linux AMI qui est une version de Linux supportée par Amazon pour être utilisée sur Amazon Elastic Compute Cloud (Amazon EC2). La distribution est maintenue par AWS et est gratuite pour les utilisateurs d' | ||
+ | |||
+ | Amazon Linux AMI utilise YUM pour les paquets et les dépôts et est une distribution légère (pour autant que je puisse le dire). | ||
+ | |||
+ | Son code source peut être consulté en utilisant un outil fourni : | ||
+ | |||
+ | Pour ceux d' | ||
+ | |||
+ | **EPFL | ||
The EPFL (École Polytechnique Fédérale de Lausanne) uses Linux in everything from large networks to even drones. Their Laboratory of Intelligent Systems (LIS) specialises in bio-inspired AI, autonomous robots, and the like. | The EPFL (École Polytechnique Fédérale de Lausanne) uses Linux in everything from large networks to even drones. Their Laboratory of Intelligent Systems (LIS) specialises in bio-inspired AI, autonomous robots, and the like. | ||
Ligne 26: | Ligne 44: | ||
But it doesn’t end there for the EPFL. Oh, no. We’ve looked at the small things running Linux, now it’s time to wheel out the big guns. | But it doesn’t end there for the EPFL. Oh, no. We’ve looked at the small things running Linux, now it’s time to wheel out the big guns. | ||
+ | ** | ||
- | Aries | + | EPFL |
+ | |||
+ | L'EPFL (École Polytechnique Fédérale de Lausanne) utilise Linux partout, depuis des réseaux importants jusqu' | ||
+ | |||
+ | Pour avoir fait joujou avec des quadricoptères simples et bon marché je peux vous garantir que les faire voler dans un espace confiné revient à rechercher des ennuis. C'est un des sujets sur lesquels se penche le LIS. Leur drone GimBall est doté d'une cage de sécurité qui le protège même lors des collisions. | ||
+ | |||
+ | Le drone AirBurr est encore plus impressionnant : | ||
+ | |||
+ | Mais avec l'EPFL ça ne s' | ||
+ | |||
+ | **Aries | ||
Aries is one of four IBM AMD Opteron clusters used by the EPFL. You think your desktop PC is pretty beefy? Take a look at what’s inside Aries: | Aries is one of four IBM AMD Opteron clusters used by the EPFL. You think your desktop PC is pretty beefy? Take a look at what’s inside Aries: | ||
Ligne 37: | Ligne 66: | ||
• nodes are interconnected by an InfiniBand fast network QDR at 40 Gb/s, (fully non-blocking); | • nodes are interconnected by an InfiniBand fast network QDR at 40 Gb/s, (fully non-blocking); | ||
- | • a GPFS dedicated storage of effective 87 TB – 14 TB for home and 73 TB for scratch. | + | • a GPFS dedicated storage of effective 87 TB – 14 TB for home and 73 TB for scratch.** |
+ | |||
+ | Aries | ||
+ | |||
+ | Aries est l'un des quatre clusters IBM AMD Opteron utilisé par l' | ||
+ | |||
+ | • un frontal consistant en deux processeurs dodeca-cœurs AMD Opteron 6176 (Magny-Cours) 2,3 GHz, soit 24 cœurs avec 24 Go de mémoire ; | ||
+ | |||
+ | • 2 racks contenant 44 « pizza nodes » (des ordinateurs rackables ayant les dimensions d'une boîte à pizza) ; chaque nœud contient 4 processeurs dodeca-cœurs AMD Opteron 6176 (Magny-Cours) 2,3 GHz (soit 48 cœurs par nœud) et 192 Go de mémoire, soit 4 Go de RAM par cœur ; performance maximale : 19,43 TFlops ; | ||
+ | |||
+ | • les nœuds sont interconnectés par un réseau QDR InfiniBand rapide à 40 Gb/s (entièrement sans verrous) ; | ||
+ | |||
+ | • un stockage GPFS dédié de 87 To : 14 To pour le home et 73 To pour le scratch. | ||
- | | + | **Bellatrix |
Another EPFL cluster machine, this time Sandy Bridge based, and has: | Another EPFL cluster machine, this time Sandy Bridge based, and has: | ||
Ligne 55: | Ligne 96: | ||
• a master node in charge of administration and backup, | • a master node in charge of administration and backup, | ||
• 424 compute nodes, each with: | • 424 compute nodes, each with: | ||
- | • 2 Sandy Bridge processors running at 2.2 GHz, with 8 cores each, | + | • 2 Sandy Bridge processors running at 2.2 GHz, with 8 cores each, |
- | • 32 GB of RAM, | + | • 32 GB of RAM, |
• for a total of 6784 cores | • for a total of 6784 cores | ||
Ligne 62: | Ligne 103: | ||
• Infiniband QDR 2:1 connectivity | • Infiniband QDR 2:1 connectivity | ||
- | • GPFS filesystem. | + | • GPFS filesystem.** |
- | Castor | + | Bellatrix |
+ | |||
+ | Un autre cluster de l' | ||
+ | |||
+ | • performances en pointe : 119 TFlops ; | ||
+ | |||
+ | • RAM totale : 14 To ; | ||
+ | |||
+ | • stockage : 200 To. | ||
+ | |||
+ | Le cluster est composé de : | ||
+ | |||
+ | • un frontal ; | ||
+ | |||
+ | • un nœud maître dédié à l' | ||
+ | |||
+ | • 424 nœuds de calcul, chacun avec : | ||
+ | |||
+ | • 2 processeurs Sandy Bridge cadencés à 2,2 GHz, avec 8 cœurs chacun, | ||
+ | |||
+ | • 32 Go de RAM | ||
+ | |||
+ | • pour un total de 6 784 cœurs | ||
+ | |||
+ | • connexion QDR InfiniBand 2:1 ; | ||
+ | |||
+ | • système de fichier GPFS. | ||
+ | |||
+ | **Castor | ||
Castor is a Dalco Intel Ivy Bridge cluster specifically tailored for sequential calculations which is comprised of: | Castor is a Dalco Intel Ivy Bridge cluster specifically tailored for sequential calculations which is comprised of: | ||
Ligne 81: | Ligne 150: | ||
Each node has 2 Ivy Bridge processors with 8 cores each, running at 2.6GHz (model name: Intel Xeon E5-2650 v2). | Each node has 2 Ivy Bridge processors with 8 cores each, running at 2.6GHz (model name: Intel Xeon E5-2650 v2). | ||
+ | ** | ||
- | Daneb | + | Castor |
+ | |||
+ | Castor est un cluster Dalco Intel Ivy Bridge spécialement conçu pour le calcul séquentiel et se compose de : | ||
+ | |||
+ | • un frontal ; | ||
+ | |||
+ | • un nœud dédié à l' | ||
+ | |||
+ | • 50 nœuds standards avec 64 Go de RAM chacun ; | ||
+ | |||
+ | • 2 nœuds à forte mémoire avec 256 Go de RAM chacun ; | ||
+ | |||
+ | • un serveur de stockage NFS de 22 To (4 To pour le home, 18 To pour le scratch) ; | ||
+ | |||
+ | • un réseau de 10 GbE. | ||
+ | |||
+ | Chaque nœud embarque deux processeurs Ivy Bridge avec huit cœurs chacun et cadencés à 2,6 GHz (modèle Intel Xeon E5-2650v2). | ||
+ | |||
+ | **Daneb | ||
Last, but not least, is Daneb. This is an Intel Xeon based cluster which has: | Last, but not least, is Daneb. This is an Intel Xeon based cluster which has: | ||
Ligne 102: | Ligne 190: | ||
• 64 GB of DDR4 RAM | • 64 GB of DDR4 RAM | ||
- | • 16 GPU accelerated nodes, each with 4 K40 NVIDIA | + | • 16 GPU accelerated nodes, each with 4 K40 nVidia |
• 8 large memory nodes, each with 256 GB of RAM | • 8 large memory nodes, each with 256 GB of RAM | ||
• 2 NUMA nodes, each with 4 processors and 512 GB of RAM | • 2 NUMA nodes, each with 4 processors and 512 GB of RAM | ||
Ligne 110: | Ligne 198: | ||
All of the above clusters run RHEL (Red Hat Enterprise Linux) | All of the above clusters run RHEL (Red Hat Enterprise Linux) | ||
- | If you think they’re impressive, you ain’t seen nothing yet! | + | If you think they’re impressive, you ain’t seen nothing yet!** |
- | BlueGene/Q | + | Daneb |
+ | |||
+ | Le dernier, mais pas le moindre, Daned est un cluster à base d' | ||
+ | |||
+ | • performances en pointe : 293 TFlops (211 via des processeurs classiques, 92 via des processeurs graphiques) ; | ||
+ | |||
+ | • RAM totale : 37 To ; | ||
+ | |||
+ | • Stockage : 350 To. | ||
+ | |||
+ | Le cluster est composé de : | ||
+ | |||
+ | • 2 frontaux ; | ||
+ | |||
+ | • 2 nœuds maîtres dédiés à l' | ||
+ | |||
+ | • 376 nœuds de calcul, chacun embarquant : | ||
+ | |||
+ | • 2 processeurs Sandy Bridge à 8 cœurs cadencés à 2,6 GHz, | ||
+ | |||
+ | • 64 Go de RAM DDR3, | ||
+ | |||
+ | • 144 nœuds de calcul avec, pour chacun : | ||
+ | |||
+ | • 2 processeurs Haswell 12 cœurs cadencés à 2,5 GHz, | ||
+ | |||
+ | • 64 Go de RAM DDR4, | ||
+ | |||
+ | • 16 nœuds accélérés par des processeurs graphiques, chacun avec 4 cartes NVIDIA K40 ; | ||
+ | |||
+ | • 8 nœuds à forte mémoire, chacun avec 256 Go de RAM ; | ||
+ | |||
+ | • 2 nœuds NUMA chacun avec 4 processeurs et 512 Go de RAM ; | ||
+ | |||
+ | • connexion QDR InfiniBand 2:1 ; | ||
+ | |||
+ | • système de fichiers GPFS. | ||
+ | |||
+ | Tous les clusters ci-dessus tournent sous Red Hat Enterprise Linux. | ||
+ | |||
+ | Si vous les trouvez impressionnants, | ||
+ | |||
+ | **BlueGene/Q | ||
This behemoth is the Lemanicus BG/Q supercomputer. The specs will bring tears to your eyes: | This behemoth is the Lemanicus BG/Q supercomputer. The specs will bring tears to your eyes: | ||
Ligne 130: | Ligne 260: | ||
If you really want to geek out on this beast, I’ll let you download and flip through the Getting Started guide: http:// | If you really want to geek out on this beast, I’ll let you download and flip through the Getting Started guide: http:// | ||
+ | ** | ||
- | I’ll let Vicky from the EPFL tell you more about them: | + | BlueGene/Q |
- | “As standard HPC platforms, our clusters run a mix of Open-Source and proprietary software. There are some specific drivers for the InfiniBand network and the GPUs (for the nodes with GPUs), and proprietary compilers and parallelization libraries (Intel). Of course, we also provide GNU compilers and Open Source parallelization libraries, so the users who want to, can use free software on our machines. Actually you can go fully Open Source on the supercomputers. But, as I say, those are beowulf clusters following the beowulf philosophy: commodity hardware, free and open source software.” | + | Ce mastodonte est le super-ordinateur Lemanicus BG/Q. Ses caractéristiques vont vous faire pleurer d' |
- | What’s a Beowolf cluster? Basically: | + | • super-ordinateur IBM BlueGene/Q Massively Parallel ; |
+ | |||
+ | • 1 rack câblé comme un tore 5D 4x4x4x8x2 (http:// | ||
+ | |||
+ | • 1 024 nœuds de 16 cœurs PowerA2 à 1,6 GHz ; | ||
+ | |||
+ | • refroidissement liquide à consommation d' | ||
+ | |||
+ | • 209 TFlops en pointe, 172 TFlops au test LINPACK ; | ||
+ | |||
+ | • 16 To de mémoire (16 Go par nœud de calcul, 1 Go par cœur). | ||
+ | |||
+ | Stockage : | ||
+ | |||
+ | • 2,1 Po d' | ||
+ | |||
+ | • gestion des disques : RAID natif GPFS (GNRx) ; | ||
+ | |||
+ | • système de fichiers parallèle GPFS. | ||
+ | |||
+ | Si vous voulez vraiment approcher de plus près la bête, je vous laisse télécharger et parcourir son guide du débutant : | ||
+ | |||
+ | **I’ll let Vicky from the EPFL tell you more about them: | ||
+ | |||
+ | “As standard HPC platforms, our clusters run a mix of Open-Source and proprietary software. There are some specific drivers for the InfiniBand network and the GPUs (for the nodes with GPUs), and proprietary compilers and parallelization libraries (Intel). Of course, we also provide GNU compilers and Open Source parallelization libraries, so the users who want to, can use free software on our machines. Actually you can go fully Open Source on the supercomputers. But, as I say, those are beowulf clusters following the beowulf philosophy: commodity hardware, free and open source software.”** | ||
+ | |||
+ | Je laisse maintenant la parole à Vicky, de l' | ||
+ | |||
+ | « En tant que plateformes HPC standards, nos clusters fonctionnent avec un mélange d'Open Source et de logiciels propriétaires. Il y a des pilotes spécifiques pour le réseau InfiniBand et pour les processeurs graphiques (pour les nœuds qui en comportent), | ||
+ | |||
+ | **What’s a Beowolf cluster? Basically: | ||
• a distributed memory machine. | • a distributed memory machine. | ||
• a cluster built from inexpensive personal computer hardware. | • a cluster built from inexpensive personal computer hardware. | ||
Ligne 145: | Ligne 306: | ||
• appears to the network as a unique entity. | • appears to the network as a unique entity. | ||
• Beowulf nodes can be thought of as a CPU + memory package which can be plugged into the cluster. | • Beowulf nodes can be thought of as a CPU + memory package which can be plugged into the cluster. | ||
- | • to have a faster cluster, just add nodes. | + | • to have a faster cluster, just add nodes.** |
- | Some users access the cvlab cluster with just a shell. Computations are done using Python and C++ to give maximum speed. Some, though, use Matlab. | + | Qu' |
+ | |||
+ | • une machine à mémoire distribuée ; | ||
+ | |||
+ | • une construction basée sur du matériel bon marché issu d' | ||
+ | |||
+ | • un réseau d' | ||
+ | |||
+ | • une utilisation de logiciels gratuits et Open Source ; | ||
+ | |||
+ | • des nœuds mis en réseau via un petit LAN TCP/IP et munis de programmes permettant le partage des calculs entre eux ; | ||
+ | |||
+ | • un comportement ressemblant plus à celui d'une machine unique qu'à celui d'un grand nombre de stations de travail ; | ||
+ | |||
+ | • un accès aux nœuds de calcul uniquement par le biais de nœuds maîtres ; | ||
+ | |||
+ | • une reconnaissance par le réseau comme entité unique ; | ||
+ | |||
+ | • des nœuds Beowulf peuvent être considérés comme des ensembles processeur/ | ||
+ | |||
+ | • une rapidité accrue par la simple adjonction de nœuds. | ||
+ | |||
+ | **Some users access the cvlab cluster with just a shell. Computations are done using Python and C++ to give maximum speed. Some, though, use Matlab. | ||
The cluster in question is made up of: | The cluster in question is made up of: | ||
Ligne 154: | Ligne 337: | ||
• 3 x IBM x3650 M4 | • 3 x IBM x3650 M4 | ||
• 2 x Supermicro X8DTU | • 2 x Supermicro X8DTU | ||
- | • 1 x Supermicro X7DWU | + | • |
+ | |||
+ | Certains utilisateurs accèdent au cluster du CVLAB (une division de l' | ||
+ | |||
+ | Le cluster dont il s'agit est composé de : | ||
+ | |||
+ | • 6 x IBM x3650 M3 | ||
+ | |||
+ | • 4 x Dell PowerEdge R720 | ||
+ | |||
+ | • 3 x IBM x3650 M4 | ||
+ | |||
+ | • 2 x Supermicro X8DTU | ||
+ | |||
+ | • 1 x Supermicro X7DWU | ||
- | Most of the Computing Science courses in first or second year are encouraged to use Linux. Quite a few IT rooms dual-boot Linux with Windows. Some can even be accessed using SSH. | + | **Most of the Computing Science courses in first or second year are encouraged to use Linux. Quite a few IT rooms dual-boot Linux with Windows. Some can even be accessed using SSH. |
Many thanks to Vicky and Axel for the info. | Many thanks to Vicky and Axel for the info. | ||
- | I’m sure, after all that, your head is spinning. Speaking of spinning… | + | I’m sure, after all that, your head is spinning. Speaking of spinning…** |
- | CERN | + | La plupart des étudiants de science informatique de première et de deuxième années sont encouragés à utiliser Linux. Nombre de salles d' |
+ | |||
+ | Un grand merci à Vicky et Axel pour ces informations. | ||
+ | |||
+ | Après cela, je suis sûr que vous avez la tête qui tourne. Et puisqu' | ||
+ | |||
+ | **CERN | ||
The European Organization for Nuclear Research, or CERN, is probably most famous for the Large Hadron Collider (LHC). Every second, 600 million particles collide within the LHC. Every year physicists sift through 30 petabytes (more on them later) of data. | The European Organization for Nuclear Research, or CERN, is probably most famous for the Large Hadron Collider (LHC). Every second, 600 million particles collide within the LHC. Every year physicists sift through 30 petabytes (more on them later) of data. | ||
- | CERN uses several Linux distributions on approximately 25,000 servers and desktops at the laboratory’s sites in Geneva and Budapest. The majority are running Scientific Linux CERN 5 and 6 (ie: Scientific Linux from Red Hat Enterprise Linux 5 and 6 respectively), | + | CERN uses several Linux distributions on approximately 25,000 servers and desktops at the laboratory’s sites in Geneva and Budapest. The majority are running Scientific Linux CERN 5 and 6 (ie: Scientific Linux from Red Hat Enterprise Linux 5 and 6 respectively), |
- | A wide range of applications are used, including standard infrastructure components such as web services or development build services, but the bulk of the resources are used to support physics analysis and simulation by the 11,000 physicists who use the facilities at CERN. | + | CERN |
- | Open source software is used extensively at CERN – from the infrastructure such as Linux and OpenStack, through to the applications written by the physicists themselves to analyse the 27 PB/ | + | C'est probablement pour son accélérateur de particules LHC (Large Hardron Collider) que le Centre Européen de Recherche Nucléaire (CERN) est le plus connu. Chaque seconde, 600 millions de particules y entrent en collision et chaque année les physiciens passent au crible 30 petaoctets de données |
- | There are around 11,000 ‘white box’ servers in the CERN computer centres with between 8 and 32 cores and an average of 2 GB/core. They are generally connected using 1GB/s Ethernet. These servers are part of the Worldwide LHC grid which runs over 2 million jobs per day. | + | Le CERN utilise différentes distributions Linux sur environ 25 000 serveurs et machines de bureau répartis sur ses deux sites de Genève et Budapest. La majorité utilisent Scientific Linux CERN 5 et 6 (basés sur Red Hat Enterprise Linux 5 et 6) ainsi que quelques distributions Red Had Enterprise Linux. Les nouvelles installations commencent à utiliser CERN CentOS 7 (CC7). |
+ | |||
+ | **A wide range of applications are used, including standard infrastructure components such as web services or development build services, but the bulk of the resources are used to support physics analysis and simulation by the 11,000 physicists who use the facilities at CERN. | ||
+ | |||
+ | Open source software is used extensively at CERN – from the infrastructure such as Linux and OpenStack, through to the applications written by the physicists themselves to analyse the 27 PB/year (PB = petabyte = 1,000 terabytes, or 1,000,000 gigabytes) which is produced by the Large Hadron Collider.** | ||
+ | |||
+ | Une large gamme d' | ||
+ | |||
+ | L'Open Source est largement utilisé au CERN, depuis l' | ||
+ | |||
+ | **There are around 11,000 ‘white box’ servers in the CERN computer centres with between 8 and 32 cores and an average of 2 GB/core. They are generally connected using 1GB/s Ethernet. These servers are part of the Worldwide LHC grid which runs over 2 million jobs per day. | ||
Many thanks to Tim Bell and the Press Office from CERN for that info. | Many thanks to Tim Bell and the Press Office from CERN for that info. | ||
Ligne 178: | Ligne 391: | ||
To learn more about the LHC, there’s an excellent PDF brochure from: http:// | To learn more about the LHC, there’s an excellent PDF brochure from: http:// | ||
- | To learn more about CC7, SLC5/6, and more, see: http:// | + | To learn more about CC7, SLC5/6, and more, see: http:// |
- | Supercomputers | + | Les centres informatiques du CERN abritent environ 11 000 serveurs « boîtes blanches » chacun comprenant entre 8 et 32 cœurs pour une mémoire moyenne de 2 Go par cœur. Ils sont en général connectés via un Ethernet 1 Go/s. Ces serveurs font partie du « Worldwide LHC Grid » qui traite plus de deux millions de tâches chaque jour. |
+ | |||
+ | Merci à Tim Bell et au service de presse du CERN pour ces informations. | ||
+ | |||
+ | Si vous voulez en apprendre plus sur le LHC, le CERN met à disposition une excellente brochure : http:// | ||
+ | |||
+ | Pour en savoir plus sur les différents systèmes d' | ||
+ | |||
+ | **Supercomputers | ||
Needless to say, almost all of the world' | Needless to say, almost all of the world' | ||
Ligne 188: | Ligne 409: | ||
Number one on the list is Tianhe-2 from China. It runs Kylin Linux, which is a version of Ubuntu. In second place is Titan, which runs the Cray Linux Environment. Sequoia, in third, runs Linux. Just ‘Linux’ according to the TOP500 listing. Same with K in fourth place and Mira in fifth. | Number one on the list is Tianhe-2 from China. It runs Kylin Linux, which is a version of Ubuntu. In second place is Titan, which runs the Cray Linux Environment. Sequoia, in third, runs Linux. Just ‘Linux’ according to the TOP500 listing. Same with K in fourth place and Mira in fifth. | ||
- | Having looked through the top ten, they all run Linux of some sort. | + | Having looked through the top ten, they all run Linux of some sort.** |
+ | |||
+ | Super-ordinateurs | ||
+ | |||
+ | Il est inutile de dire que la quasi-totalité des super-ordinateurs du monde fonctionnent grâce à Linux, sous une forme ou sous une autre. Le TOP500 est un tableau qui recense les machines les plus puissantes. Depuis 1993, ce classement est publié deux fois par an. | ||
+ | |||
+ | En novembre 2014 le Top 5 était : | ||
+ | |||
+ | • Tianhe-2 (Chine) qui fonctionne sous Kylin Linux (un dérivé d' | ||
+ | |||
+ | • Titan, qui utilise Cray Linux Environment ; | ||
+ | |||
+ | • Sequoia (Linux sans plus de précision dans le classement) ; | ||
+ | |||
+ | • K (Linux sans plus de précision dans le classement) ; | ||
+ | |||
+ | • Mira (Linux sans plus de précision dans le classement). | ||
+ | |||
+ | Le Top 10 est entièrement constitué de machines fonctionnant sous Linux. |
issue100/linux_in_industry.1440941582.txt.gz · Dernière modification : 2015/08/30 15:33 de auntiee