Si la conférence avait un bel intérêt pour les professionnels, c'est une autre paire de manches pour le grand public. En effet la grande majorité des annonces (toutes ?) ne concernent en fait que les pros. En tout cas on aura pu admirer Jensen Huang le patron de Nvidia présenter tout ceci depuis... sa cuisine, ce qui a un charme certain et qui tranche nettement avec l'habituelle scène sombre un peu monotone.

A100 : Première puce Ampère, taillée pour l'intelligence artificielle

La principale annonce de cette conférence concerne la puce A100. Car oui, avant d'arriver dans nos cartes graphiques RTX pour équiper nos tours, Nvidia a souhaité montrer la version Pro. Un monstre de 826 mm2 avec ses 54 milliard de transistors. Celle-ci aura pour but d'équiper des super calculateurs pour le monde de la recherche et de l'intelligence artificielle.

La puce A100 est gravée en 7 nm et non 12 nm pour la puce Turing actuelle et elle embarque 6912 CUDA Core (contre 4352 pour une RTX 2080 ti à titre de comparaison). Coté Tensor Core, ceux-ci s'élèvent au nombre de 422. Toujours pour parler chiffres, le circuit embarque une mémoire cache de 40 Mo soit 7 fois plus que la carte Turing V100.

Pour le calcul de l'intelligence artificielle, cette puce s'annonce être 20 fois plus efficace que la dite V100.

Evidemment tout ceci a un prix et une entreprise doit débourser pas moins de... 200.000 dollars pour se procurer le système qui combine 8 cartes A100.