Les besoins en puissance de calcul sont si colossaux pour l’intelligence artificielle que les utilisateurs les plus puissants consacrés au machine learning utilisent des GPU. C’est à destination de ces machines spécifiques que Nvidia annonce le P100 Tesla en version PCI-Express.
C’est lors de la GPU Technology Conference du mois d’avril que Nvidia a présenté son GPU P100 Tesla en version NVLink. Cette nouvelle version change simplement l’interconnexion pour que le GPU puisse s’adapter aux slots PCI-Express. Cette déclinaison est parfaitement logique vu que pratiquement tous les ordinateurs sont aujourd’hui équipés de tels slots.
Bien que cinq fois plus rapide que la technologie PCI-Express, il faut dire que les ordinateurs équipés de la technologie NVLink sont encore rares. Les serveurs de puissance d’IBM en seront équipés à partir de la seconde moitié de l’année prochaine.
Deux configurations pour le GPU P100 Tesla PCI-Express
Nvidia décline son GPU P100 Tesla PCI-Express en deux variantes. La première est équipée de 16 Go de RAM à 720 Go/s (comme pour la version NVLink) et une seconde dotée de 12 Go de RAM à 540 Go/s. Question performances, la société annonce 4,7 téraflops en double précision (5,3 téraflops sur la version NVLink), 9,3 téraflops en simple précision (10,6 téraflops sur la version NVLink). Sa consommation a été plafonnée à 250 W. Le GPU travaille avec le framework de programmation parallèle CUDA.
Que cela soit les super ordinateurs consacrés à la modélisation météo ou aux prévisions économiques, ils pourront tous profiter de ce GPU pour autant qu’ils soient équipés de slots PCI-Express. En matière d’intelligence artificielle et de machine learning, ces puces peuvent également aider la reconnaissance vocale, la conduite autonome…
L’entreprise Nvidia annonce d’ores et déjà que les décideurs de sociétés telles que Cray, Dell et Hewlett-Packard pourront passer commande du P100 Tesla PCI-Express à partir du quatrième trimestre de cette année. La question du prix n’est pas mentionnée pour l’heure.