Nvidia vient d’annoncer son tout nouvel ordinateur de « bureau », l’un des plus puissants jamais construits : Nvidia DGX Station ! Dédié à l’intelligence artificielle et au deep learning, ce nouvel outil a de quoi faire rêver. Quelles sont donc les spécifications de ce système à 50 000$ ?

L’un des PC de bureau les plus puissants au monde

Sans détailler pour l’instant l’intérêt de ce monstre, en voici les spécifications :

4 Cartes graphiques dopées

tesla v1004 x Tesla V100, pour une puissance de 500 TFLOPS.

Un FLOPS est une unité de mesure en informatique et désigne « une opération élémentaire (addition/multiplication) en 1 seconde ». 500 TFLOPS représente donc 500 téra-FLOPS, soit 500 mille milliard d’opérations par seconde.

A titre de comparaison, la Nvidia GTX  1080, dernière carte graphique de jeux vidéo, représente 8 TFLOPS.

Cette puissance phénoménale des Tesla V100 est divisible en 2560 coeurs Nvidia Tensor ou 20480 coeurs Nvidia CUDA. Pour les data scientists, ces coeurs sont utilisés par les algorithmes de machine learning et deep learning pour entraîner leurs modèles, en parallélisant les opérations, afin de gagner du temps. A noter que le GPU est généralement privilégié au CPU dans les traitements massifs.

Processeur : un « petit » 20 coeurs

Intel Xeon E5-2698 v4 : Intel Xeon E5-2698 v4cadencé à 2.2 GHz, cette « faible » fréquence peut vous surprendre, si vous comparez à votre ordinateur (des i7/i9 à 3-4GHz par exemple), mais ne vous laissez pas avoir.

Ici, on a 20 coeurs physiques ou 40 threads… Un coeur sert à traiter une instruction, par exemple « ouvre cette vidéo », « exécute tel calcul », tandis que les threads sont des coeurs virtuels (autrement dit, on peut donner 2 tâches à chacun de nos coeurs).

Rappelons quand même que les cartes graphiques, qui auront très certainement en charge la quasi-totalité des calculs de deep learning, mais Nvidia souhaite vraiment offrir un système parfaitement optimisé, et vous pourrez facilement utiliser le CPU pour tous vos algorithmes (ou jeux ?). A titre de comparaison, voici le modèle inférieur v3.

RAM en DDR4

ram256 GB  de LRDIMM DDR4, probablement cadencée à 2400MHz : sortie assez récemment, la DDR4 s’est rapidement imposée en tant que remplaçante de la DDR3.

Si la cadence nous parait familière, deux informations sont à prendre en compte :

  • On a 256GB contre les habituels 8GB de nos ordinateurs
  • C’est de la LRDIMM, beaucoup plus adaptée aux opérations simples (écriture, lecture, copie…)

La RAM est généralement utilisée pour mettre en mémoire les jeux de données d’apprentissage des algorithmes. Il est donc indispensable d’avoir une RAM supérieure à la taille des fichiers pour pouvoir les traiter « en une fois », même si de nombreux contournements existent, et s’il arrive de devoir apprendre à partir d’un flux continu d’information.

Disques durs pour la data et pour l’OS

ssd3 x 1.92 TB SSD (RAID 0) pour les jeux de données
1 x 1.92 TB SSD pour l’OS (Ubuntu)

Les SSD sont des disques durs ultra-rapides (2-3 fois plus qu’un HDD classique), que l’on retrouve généralement chez les particuliers mais avec des tailles de l’ordre de 200 GB (soit 10 fois plus petits).

Ils servent notamment à stocker les données pour pouvoir ensuite les charger en mémoire (RAM) et les utiliser, donc avec une telle capacité, on imagine pouvoir conserver des milliers d’enregistrements audio ou vidéo sans problème.

Autres informations incroyables

deep learning developer frameworksMoins de 35 dB de bruit

Pèse 40 kg !

Consomme 1500W

Température entre 10°C et 30°C

Plusieurs frameworks d’IA et de deep learning intégrés : Caffe, PyTorch, TensorFlow, Theano…

Un outil pour qu’elles nous gouvernent tous (les IA)

On arrive à la question fatidique : à quoi ça sert de dépenser 50 000$ dans un ordinateur pareil, aussi beau et puissant soit-il.

Cet ordinateur de bureau est en réalité dédié aux équipes entraînant des intelligences artificielles ou travaillant sur des algorithmes de deep learning : ils ont besoin d’énormément de puissance de calcul pour que les algorithmes travaillent, et de beaucoup de mémoire pour charger les jeux de données (qui sont de plusieurs milliers/millions d’enregistrements) !

Par exemple, pour obtenir un réseau de neurones à reconnaître des chats et des chiens, il vous faudra une bonne dizaines d’heures (et ce, pour un résultat « moyen »). A cet ordinateur, c’est une affaire de secondes. Généralement, dans les sociétés, les phases d’entraînement durent de quelques semaines à plusieurs mois. Cela pose beaucoup de problèmes (perte de temps, mauvais choix de l’algorithme/résultats non probants au final, innovation…) que Nvidia propose d’écarter en permettant aux équipes de tester très rapidement des idées à grande échelle.

Conclusion

47 fois plus rapide que les ordinateurs actuels des data-scientists (qui sont beaucoup plus rapides que nos ordinateurs de bureau), cet outil promet des performances exceptionnels, par exemple en traitant 30 000 images par seconde !

Nvidia mise tout sur ce nouvel ordinateur pour se placer en tant que leader des équipements « moyens » des data-scientists. Si la somme demander parait très élevée, beaucoup de sociétés et d’organismes de recherche seront prêts à les investir s’ils peuvent gagner plusieurs mois de développement !

Et vous, quelle utilisation en auriez-vous ?

 

PARTAGER
Article précédentUn mod de Civilization 5 contre les IA
Article suivantTrois impacts du Big Data sur le marketing en 2018
Lambert R.
Ingénieur d'Etudes et Data Scientist depuis plusieurs années, mes travaux et mon parcours scolaire (master en mathématiques fondamentales) m'ont amené aux abords de l'intelligence artificielle. Aujourd'hui j'écris des articles en data science, deep learning, big data et intelligence artificielle pour PenseeArtificielle.fr, dans le but de promouvoir et vulgariser les promesses d'avenir qu'offrent ces domaines de pointe.