Premium
1080p X Ultra

1080p X Ultra

Par WandaNoOrchestra Blog créé le 29/12/09 Mis à jour le 25/01/17 à 17h17

Ajouter aux favoris
  
Signaler
Dossiers de fond (Jeu vidéo)

Le sommaire :

  • Le "GeForce Experience" et le "ShadowPlay".
  • La technologie "G-Sync" : Évolution ou révolution ?
  • Les SDK "Gameworks", ses nouvelles technologies et l'avenir de PhysX.
  • Les "Battlebox" ou les machines de guerre.
  • Annonce de la "Geforce 780-Ti", le GPU le plus véloce du marché.
  • Baisse des tarifs des GPU "Haut de gamme" et nouveaux bundles AAA de fin d'année.


1. Le GeForce Experience :

Avant d'aborder les qualités et défauts de la BÊTA du nouveau logiciel Shadow Play d'Nvidia, il convient de revenir sur le GeForce Experience car ce dernier s'inscrit dans une logique similaire. En effet, à l'image de Steam et son mode "Big Picture", le constructeur au caméléon montre lui aussi une volonté indéniable d'ouvrir l'écosystème PC au grand public en proposant gratuitement des suites logicielles aux fonctions astucieuses et aux designs ergonomiques.

Ainsi, le Geforce Experience permet aux nouveaux PCistes (équipés de cartes graphiques Nvidia) de s'initier plus aisément aux nombreux paramètres graphiques présents dans l'immense majorité des jeux PC. Le logiciel propose ainsi deux fonctions majeures. La première permet de comprendre, en images et en textes, le sens de termes qui peuvent paraitre parfois obscurs auprès des nouveaux venus (comme la tesselation, l'anisotropie, le Post FX, les éclairages et ombrages diffus, le PhysX et tant d'autres encore).

La seconde fonction vient également en aide aux plus novices en la matière. En prenant en considération la vélocité du hardware concerné, le logiciel peut se charger de paramétrer automatiquement les options graphiques du catalogue de jeux à la disposition de l'utilisateur, et ce, en un simple click de souris.

Quelques screenshots personnels :


2. Le Shadow Play (bêta) :

L'offre de logiciels destinée à capturer des vidéos est conséquente sur PC, on peut par exemple citer FRAPS, MSI Afterbuner / Riva Tuner, Mirillis Action, Play Claw et d'autres. Chacuns possèdent des avantages et inconvénients, payants ou gratuits, ils disposent tous de performances, de fonctions, et font preuve d'une gourmandise hardware qui leurs sont propres. C'est dans ce contexte-là qu'Nvidia vient proposer sa solution gratuite, pour l'heure, toujours en Bêta, mais qui comme nous allons le voir, pourrait bien s'imposer à terme, comme une référence en la matière.

Notez que le nouveau software d'Nvidia n'est pris en charge que par les GPU de type KEPLER, autrement dit, ne sont concernés que les possesseurs des GPU des gammes 600 et 700, deux gammes qui couvrent une large majorité des cartes possédées par les joueurs. Cela ne devrait donc pas poser de problèmes au plus grand nombre. Enfin, l'introduction de l'article n'était pas anodine puisque le "Shadow Play" est accessible via l'interface du "Geforce Experience" au travers d'une icône trouvable en haut à droite.

Les fonctionnalités du "Shadow Play" :

  • Outre sa fonctionnalité première, celle de la capture vidéo, le "Shadow Play" tire son nom d'une fonctionnalité qui sera également disponible sur les consoles nextgen, celle de capturer "dans l'ombre" (autrement dit, de manière invisible) les 10 dernières minutes de jeu (extensible à 20 lorsque la version finale sera disponible). Cette fonctionnalité est évidemment optionnelle, sachez donc qu'il est possible de la désactiver. La capture en direct, elle, n'est bien entendu confrontée à aucune limite de temps.
  • La possibilité de retransmettre en direct sur Twitch est prévue et devrait arriver sous peu (rappelons que le logiciel est encore au stade Bêta). Ainsi il sera possible de diffuser ses parties sans perte de performance notable (voir ci-dessous) et ce avec seulement une seule petite seconde de délai entre sa partie et la retransmission. Vraisemblablement, via un partenariat avec Twitch, l'ergonomie de l'ensemble promet d'être exemplaire. A confirmer dans les semaines qui viennent, mais nous pouvons nous montrer confiants.

Les spécificités techniques du "Shadow Play" :

  • Le premier argument technique du "Shadow Play" est sa gourmandise extrêmement faible. En effet, le logiciel ne consommera jamais plus de 10% des ressources hardwares disponibles lors d'un enregistrement en 1080p à 60 FPS en 50 Mbps. C'était un des engagements d'Nvidia que j'ai pu vérifier par moi même. Cette très bonne performance découle évidemment d'un processus assez complexe, mais qui peut néanmoins s'expliquer assez simplement. En effet, contrairement aux autres logiciels, le "Shadow play" utilise un API de bas de niveau inhérent aux GPU de la firme afin d'obtenir une répartition toute singulière des ressources consommées. Alexey Nicolaychuk, le créateur de "RivaTuner" (utilisé avec le logiciel MSI afterburner, une référence) souligne par ailleurs l'excellente performance signée par Nvidia tout en prenant soin d'aller plus loin dans les explications techniques. Pour les non-anglophobes.
  • Le "Shadow Play" encode directement les vidéos en H-264 et ce, jusqu'à 50 Mbps en flux vidéo. Ce qui présente, disons-le tout de suite, le meilleur compromis en terme de qualité/poids parmi toutes les solutions existantes sur le marché. Le logiciel propose en outre trois types de qualités d'encodage : "Faible" pour un débit de 15 Mbps, "Moyen" pour 22 Mbps et "Élevé" pour 50 Mpbs. À titre d'exemple, en 1080p / 60 FPS / 50 Mbps, une vidéo de deux minutes pèsera entre 500 Mo et 800Mo en fonction de la teneur de la scène enregistrée.

Le "Shadow Play" en application :

Afin de vérifier tout cela, j'ai effectué quelques essais. Pour ce faire, j'ai choisi Dailymotion, car la qualité de compression est meilleure que celle proposée par Utube, cependant, gardez bien en tête ceci, premièrement, les sites de stream diffusent en 24 FPS (voir 30), la fluidité native est donc en fait 2 fois supérieure. Deuxièmement, malgré une qualité de compression relativement acceptable, DailyMotion (comme les autres sites) est (très) loin de pouvoir représenter la qualité vidéo native capturée à partir d'un PC Gamer. À titre d'exemple, une vidéo de 50Mbps sera automatiquement réencodée en 8000 kbps sur YouTube, autrement dit, une compression vidéo d'environ 620%...

Cela étant dit, je vous propose des captures de différents types de jeux :

Si les vidéos saccadent, veuillez vider votre cache navigateur ou cliquer ici, ensuite fermez vos autres onglets web) -Up to 1080p-

Mon premier bilan personnel sur cette BÊTA du "Shadow Play" :

  • [+] Possibilité de conserver les 20 dernières minutes de jeu de manière rétroactive.
  • [+] Consommation de ressources hardware étonnamment faible lors des captures.
  • [+] Poids plume des vidéos encodées en 1080p / 60 FPS / 50 Mbps.
  • [+] Excellente qualité de capture vidéo et audio (notamment grâce au choix du H-264)
  • [+] Pouvoir jouer en downsampling 1440p (2K) et en 1800p (3K) tout en capturant en 1080p.
  • [+] Ergonomie simple et efficace.
  • [+] Très stable pour une Bêta.
  • [-] Impossibilité de prendre des screenshots, ce qui oblige à utiliser un logiciel tiers en complément.
  • [-] Manque évident de diversité au niveau des options d'encodage.
  • [-] Partenariat de rediffusion en direct avec Twitch seulement ?
  • [-] Impossibilité de capturer des vidéos en 2560x1440p (2K) en 3200x1800p (3K) ou en 3840x2160p (4K). YouTube (entre autres) prenant en charge de telles résolutions.
  • [-] Pas d'option de capture en 30 FPS. (les sites de stream ne proposant que du 30 FPS, et si le but de l'utilisateur est de publier des vidéos sur ces sites-là, il se voit donc forcé d'uploader des vidéos bien plus lourdes, car encodées "inutilement" en 60 FPS)

En conclusion :

On aurait pu craindre qu'Nvidia propose une solution de capture vidéo sans grande implication, or on tient là ce qui deviendra sans doute une référence dans le domaine, tout du moins pour les possesseurs de cartes graphiques GeForce. Encore faut-il que Nvidia peaufine l'ensemble et se montre à l'écoute de sa communauté afin de proposer plus de fonctions avant de publier la build finale. Pour l'heure, la BÊTA du "Shadow Play" est parfaitement utilisable et peut d'ores et déjà être considérée comme une véritable solution viable, bien plus que comme une simple alternative faiblarde aux logiciels du même type, que ces derniers soient d'ailleurs gratuits ou... non.


Aux dires de nombreux experts hardware et de journalistes spécialisés, la "G-SYNC" serait une technologie dont on se demanderait l'utilité de prime abord, mais qui, une fois essayée, deviendrait à terme, indispensable. Elle s'imposerait comme une évidence, une évolution naturelle des caractéristiques de l'affichage en vue d'une exploitation destinée au média jeu vidéo, une technologie qui étrangement, aurait tardé à être imaginée et développée. Alors, au lieu de me perdre dans des explications sans fin dont les 3/4 des lecteurs ne piperont pas un mot (sans vouloir offenser qui que ce soit), je vais tenter de vous résumer au mieux le concept.

Jusqu'à maintenant, les jeux sur PC (comme sur consoles) proposaient la "V-SYNC" (ou synchronisation verticale), une technologie qui permettait et qui permet toujours de palier à un phénomène dit de "Tearing" (déchirures de l'image à l'écran) causé par une désynchronisation entre le débit d'images généré par le GPU et la fréquence d'affichage des écrans (la plupart du temps se situant entre 60 à 120Hz). Ainsi, si un GPU génère plus d'images (FPS) qu'un écran est censé pouvoir en supporter, à cet instant, sans "V-SYNC", le Tearing peut apparaitre (c'est un cas de figure, mais il en existe d'autres).

La "G-SYNC" prend en quelque sorte la problématique à l'envers tout en redéfinissant de nouveaux standards de qualité. Autrement dit, et plus concrètement, si par exemple un GPU ne s'avère pas assez véloce pour maintenir un framerate désiré, l'image peut alors saccader (on parle parfois de stuterring dans le cas de violentes saccades à un instant T). Dans le but de maintenir une image sans saccades, sans tearing, et cerise sur le gâteau, avec un taux de latence de ZERO et donc un input lag qu'on peut décrire comme inexistant, les fréquences des moniteurs (seulement ceux équipés de puces G-SYNC) se synchroniseront au framerate généré par le GPU, et non plus l'inverse.

Enfin, dernier argument, et non des moindres, étant donné que les calculs seront effectués par une puce externe à la carte graphique, celle-ci sera déchargée de tous travaux liés à la correction du rafraichissement, ce qui signifie bien évidemment une économie de ressources évidente pour les GPU. (la Synchro verticale étant une option relativement gourmande, et on le constate bien sur consoles, avec de nombreux titres qui souffrent de tearing continu ou spontané)


Il sera possible de profiter de cette technologie de deux façons distinctes :

  • Acheter un moniteur embarquant nativement une puce "G-SYNC".
  • Acheter une carte "G-SYNC" à l'unité (certaines rumeurs faisant état d'un tarif de 170$) afin de l'insérer au sein d'un moniteur/TV compatible et donc certifié "NVIDIA G-SYNC".

À l'heure actuelle, un nombre important de constructeurs aurait signé un partenariat avec Nvidia afin de débuter la production de ce nouveau type de moniteurs dès 2014, mais aucun modèle précis n'a pour le moment été officialisé.

Une brève vidéo explicative avec du John Carmack et du directeur technique dedans. (ceux d'EPIC et de DICE)

Enfin, si vous souhaitez aller plus loin dans l'analyse et la compréhension de cette nouvelle technologie centrée bien plus sur le confort, que sur la performance brute, je vous recommande chaudement cet article de PCWorld.fr.


"Gameworks" est une étape importante pour Nvidia, puisqu'il s'agit très schématiquement d'un imposant programme visant à intégrer au mieux les SDK et nouvelles technologies de la firme au sein des futures productions sur PC.

"Gameworks" est composé de plus de 300 ingénieurs techniques, tous chargés de développer une nouvelle bibliothèque de technologies visuelles et physiques. Il est important de souligner qu'une partie de ces ingénieurs peut d'ores et déjà être dépêchée par les différents studios de développement afin d'aider à l'intégration et à l'optimisation des technologies propriétaires d'Nvidia, un élément qui peut sembler anodin, mais qui incarne une volonté résolument plus ferme d'étendre l'exploitation des technologies du groupe auprès des développeurs de jeux.



"Gameworks" englobe donc non seulement une philosophie réaffirmée visant à assoir encore plus encore Nvidia au coeur du développement des jeux, mais présente également une bibliothèque de technologies "clef en main". Ainsi, on pourra citer la présence d'API propriétaires qui commencent à se faire nombreuses, une assistance technique humaine auprès de studios en difficultés, divers outils d'ingénierie et de nouveaux SDK (pour Software Development Kit).

À ce sujet, et à l'occasion d'un évènement récent qui s'est déroulé à Montréal, Nvidia a dévoilé 3 nouvelles technos :

  • Le Flame Works : Il s'agit d'un algorithme spécifiquement dédié au rendu des flammes et des fumées volumétriques, et qui promet une interaction toute singulière avec l'environnement, en particulier au niveau de l'éclairage. À terme, l'objectif de cette technologie étant d'obtenir des rendus pyrotechniques cinématographiques.
  • Le GI Works : Un tout nouveau SDK dédié à la gestion des éclairages visant à simplifier les process liés à l'illumination globale au sein d'une scène 3D, tout en augmentant la qualité des réflexions et autres expositions à différents types de sources lumineuses.
  • Le FLEX : Sans doute la plus spectaculaire et prometteuse des trois, FLEX est un nouveau module de la désormais connue Api PhysX. Là ou PhysX proposait jusqu'à maintenant de générer "simplement" des interactions physiques cohérentes de façon "isolée", cette "extension/évolution" de l'Api permettra dès 2014 de pousser encore bien plus loin les interactions physiques entre différents types de corps (solides comme liquides). Autrement dit, comme montré dans la vidéo ci-dessous, via PhysX, un élément animé en temps réel pourra maintenant réagir en fonction d'un autre élément animé lui aussi en temps réel, tous deux partageront ainsi des valeurs physiques communes (et forcément complexes). En d'autres termes, FLEX permettra véritablement de toucher du doigt ce que doit être une physique "réaliste" de façon non scriptée.

La vidéo du "FLEX" est à voir en intégralité (5min45) si vous souhaitez bien vous rendre compte de ses possibilités. (à savoir, le partage de valeurs physiques communes au travers de plusieurs objets aux propriétés différentes)

Il va sans dire que les nouveautés introduites par le module "FLEX" sont compatibles avec les dernières technologies implémentées dans PhysX, à l'image de l'algorithme "APEX Turbulence", dont voici deux vidéos :

En conclusion :

Avec le "Gameworks", il parait maintenant évident que Nvidia entend bien assoir son avance sur AMD/ATI durant les prochaines années, tout du moins en ce qui concerne le marché PC (Nvidia étant déjà détenteur de plus de 65% des parts du marché). Il s'agira maintenant de vérifier si les technologies propriétaires du constructeur seront mises à profit au sein d'un plus grand nombre de titres d'envergure.

Cela étant dit, on peut se montrer confiant dans la mesure où la firme au caméléon est épaulée par la majorité des plus gros studios de l'industrie et a déjà pris soin d'annoncer une compatibilité de PhysX et d'autres technologies propriétaires au travers de pointures à venir telles que Watch_Dogs, Assassin's Creed IV, The Witcher 3, Project Cars, Star Citizen et d'autres qui ont sans doute échappées à ma vigilance. (en plus d'avoir été présent sur des titres récents tels que Call of duty : Ghost, Batman Arkham Origins ou encore Splinter Cell Blacklist).

En d'autres termes, contrairement à ces dernières années, on ne peut plus reprocher à Nvidia de développer des technologies enthousiasmantes, mais finalement exploitées dans bien peu de jeux. À l'avenir, sur ce point précis, il y a fort à parier que le constructeur aille plus que jamais de l'avant.

Les partenaires actuels de "Gameworks" :


Par ailleurs, au sujet de The Witcher 3 et étant donné que je ne cache pas être un fan de la licence, je vous propose de découvrir ou de redécouvrir une vidéo "off-screen" de certaines technologies Nvidia employées dans ce dernier.


Voilà une partie du dossier qu'on va plier rapidement étant donné qu'elle ne concernera qu'une infime partie de mon lectorat... En effet, Nvidia a récemment créé le label "Battlebox", comme le nom le laisse supposer, il s'agit de configurations gamers hors de prix offrant des performances stratosphériques et permettant donc de jouer en 4K, de faire du multi-écrans à 60 FPS sur des titres extrêmement gourmands, ou encore de profiter du système 3D vision dans des conditions optimales (voire tout cela réuni sur des titres moins exigeants).


Bref, on nage en plein délire/fantasme ! Avec des configurations affichées aux tarifs avoisinant les 3000€, vous aurez évidemment droit au top du top, à la crème de la crème... Mais la vraie question dans tout ça est : "est-ce bien utile ?" Dans la mesure ou des configurations deux fois moins chères permettent déjà de jouer à tous les jeux du marché en 1440p, paramètres poussés au maximum et ce, à 60 FPS, vous imaginez bien que l'intérêt ici est très limité... et comme mon préambule l'annonçait, ne se sentiront probablement concernés que ceux ayant les moyens de se payer une Lambo et l'essence qui va avec. (et accessoirement un téléviseur 4K)

Vous pouvez néanmoins jeter un oeil sur les modèles proposés par LDLC.com, Materiel.net ou encore Absolute PC.fr. Si vous souhaitez en savoir plus, vous pouvez aussi vous rendre sur la page officielle "Battlebox" d'Nvidia.

Jusqu'à présent, la GTX TITAN se présentait comme le fleuron des GPU Nvidia, extrêmement performante et onéreuse puisque dotée d'un tarif flirtant avec les 1000€, cette dernière fut et reste une carte d'abord conçue pour faire briller la marque. Un peu à l'image de la lutte acharnée qui faisait rage entre les USA et l'URSS pour la conquête de l'espace, Nvidia comme AMD/ATI luttent sans cesse pour démontrer leur suprématie en terme de performances... astronomiques.

C'est dans ce contexte de guerre des étoiles que Nvidia décida de lever le voile sur sa 780-Ti, répondant par la même à la tentative d'ATI de prendre la place de leader dans la démesure en dévoilant sa toute nouvelle architecture Hawaï et sa gamme R9. Ainsi, à ma grande déception, et afin de conserver son leadership, Nvidia n'aura donc même pas eu à en faire autant en dévoilant à son tour son architecture MAXWELL. Cette dernière étant toujours "prévue pour vague courant 2014". 

Pour concevoir la 780-Ti, le groupe a ainsi repris les fondamentaux de la TITAN avant de lui retirer ses capacités de calcul "de CUDA à double précision" et ses 6 Go de VRAM, deux éléments qui en faisaient bien plus une carte destinée aux professionnels oeuvrant dans le "GPU Computing", qu'une carte destinée aux gamers. Il a fallu ensuite augmenter les fréquences mémoire (notamment avec une vitesse effective de 7000 MHz !) et permettre à cette dernière d'obtenir une bande passante encore supérieure (336 Go par secondes).

Voici les specs officielles :

Reste l'argument du prix... évidemment. De fait, 649€ c'est effectivement une somme très importante, cela étant dit, il s'agit pour l'heure de la carte la plus véloce au monde, donc forcément il y a un coût lié au privilège d'avoir un tel matériel de pointe (à l'image de n'importe quelle industrie) mais aussi un coût lié au design, sous-entendu, une architecture globale qui sait allier puissance et fiabilité, ainsi qu'un système de refroidissement à la fois efficace et silencieux.

Quant à ceux qui se demanderaient ce qu'il va advenir de la TITAN et de son tiquet d'entrée à 1000€, en comparaison avec une 780-Ti plus puissante pour 350€ de moins, celle-ci va continuer à trouver son public auprès des programmeurs et développeurs en herbe en continuant à se positionner comme une carte professionnelle d'entrée de gamme, puisque comme brièvement mentionné plus haut, cette dernière demeure équipée de spécificités hardwares qui leurs sont dédiées (6Go de VRAM et CUDA double précision, entre autres.)

Enfin, à chacun de définir s'il est utile ou pas d'investir dans un tel monstre de puissance, pour ma part, je reste un fervent utilisateur de SLI (comprenez deux GPU "haut de gamme" plutôt qu'un seul GPU "très haut de gamme"), une alternative qui représente à mes yeux une solution au rapport qualité/prix bien supérieur.

On termine sur une très bonne nouvelle puisque depuis une petite semaine, toutes les cartes haut de gamme de chez Nvidia ont vu leur tarif abaissé de 70 à 100€ ! Ainsi il est possible de se procurer une Geforce 770 aux alentours des 280€ ! Je rappelle que c'est une carte capable de faire tourner Battlefield 4 en 1080p / Ultra et à 60 FPS sans broncher, je le sais bien puisque j'ai monté un PC équipé de cette carte très récemment (pour un client).

Aussi je vous encourage chaudement à regarder les tarifs de la gamme 700. D'autant plus que depuis quelques jours, Nvidia propose des bundles vraiment alléchants puisque sont offerts jusqu'à trois titres AAA pour l'achat d'une carte des gammes 600 ou 700.

Voilà ! j'ai enfin fini ce nouveau dossier qui m'a pris -à peu près- 120 ans à être rédigé -lui aussi-, je peux donc mourir en paix (une seconde fois). Mon seul regret ? Ne pas avoir pu aborder le Shield et ses fonctionnalités de streaming (notamment), mais n'ayant jamais posé les mains sur cette machine, je ne me voyais pas en mesure de lui consacrer un sujet.

Cela étant dit, si vous avez apprécié le travail, aimez, twittez, Facebookez ! Bref, partagez ! c'est toujours très encourageant. Et bien sûr, n'hésitez pas à me faire part de toutes questions, remarques ou suggestions. Enfin, si le coeur vous en dit, vous pouvez aussi favoriser ce modeste blog.

PS : Un GROS merci à Gandjonabar pour son aide à la relecture du dossier. (Aka mon correcteur officiel since 2010)

 
 

Ajouter à mes favoris Commenter (86)

Commentaires

Broken Panda
Signaler
Broken Panda
@DarkFredo58
Pour être souvent passer par ATI ( je laisse plusieurs chance ... ), j'ai souvent fait machine arrière .. au début c’était surtout a cause de drivers foireux pour les modèles "Day 1" , après parce que le Crossfire était bancal comparé au Sli et surtout ces derniers temps pour un détail qui pour moi est très très important ... Le bruit ..
Alors ok ils arrivent a titiller les + haute carte Nvidia pour 100 € de moins, mais avec un bruit et un dégagement de chaleur bien supérieur .!
Broken Panda
Signaler
Broken Panda
Clair que grâce a ce prog, on se tape enfin des live twitch présentable, plus besoin de baisser la qualité pour rester plus ou moins fluide parce que l'encodage prenait 50% du cpu.. Nvidia a pour moi vraiment une carte a jouer avec leurs surplus de puissance brute dans le monde du streaming ..
Un mode fenêtré + possibilité de foutre un overlay sur l’écran et ..... Adieux Xsplit ;)
WandaNoOrchestra
Signaler
WandaNoOrchestra

Assez d'accord avec toi Panda. Pour le moment je stream avec shadow play et les résultats sont excellents. Cela dit, ça manque encore de paramétrages.

Broken Panda
Signaler
Broken Panda
J'attend énormément du shadowplay, en fullscreen il a déjà dépassé de loin la rapidité de n'importe quel autre prog de capture video, pour qu'il soit parfait il manque juste le faites de pouvoir capturer en fenêtré et qu'il affiche un compteur de FPS dans un coin de l’écran :D
Columbo
Signaler
Columbo
Ok merci
WandaNoOrchestra
Signaler
WandaNoOrchestra

@Columbo : Pour l'instant peu d'info sur Maxwell, mais il s'agit de la nouvelle architecture d'Nvidia pour ses GPU. Donc tout ou presque devrait être remis en question dans leurs conceptions, et les performances prévues marqueraient un énorme cap avec les GPU actuels. Mais pour les prix etc, c'est encore beaucoup trop tôt.

DarkFredo58
Signaler
DarkFredo58
Un article au top !

Moi qui hésite pour ma future carte graphique entre AMD et NVIDIA ( à performance à peu près équivalentes) et bien ... j'hésite encore plus car j'étais plus tourné vers AMD.

Heureusement pour moi je ne suis pas pressé =)
Columbo
Signaler
Columbo
Comprend toujours pas ce que le truc Maxwell va apporter en 2014, concrètement il s'agît de quoi, un nouveau type de GPU, quels sont ces GPU et à quel prix ???
WandaNoOrchestra
Signaler
WandaNoOrchestra

Petite question pour Wanda, ma configue est très similaire a la tienne. Ta carte mère (et donc la mienne), ne supporte "que" le PCi express 2.0. As tu une idée (articles?) des gains si l'on change pour une carte mère supportant le PCi express 3.0?


Aucun, si ce n'est insignifiant. C'est juste une fonction futur proof.

@Mento : Merci.
MentoSz
Signaler
MentoSz
encore une fois je suis impressionné par la qualité des posts de ce blog.
Yerzareff
Signaler
Yerzareff
Il n'y a probablement pas de grosse différence niveau facture d'électricité. Pour moi le gros avantage d'une consommation électricité moindre c'est d'abord moins de chaleur. Si qui implique un meilleur environnement pour ton pc, les composants vont mieux tenir dans la longueur, tu peux potentiellement overclocker... Mais surtout c'est beaucoup plus silencieux, moi si lorsque je commence a jouer t'as l'impression que le concorde décolle a tes cotés ben...

Petite question pour Wanda, ma configue est très similaire a la tienne. Ta carte mère (et donc la mienne), ne supporte "que" le PCi express 2.0. As tu une idée (articles?) des gains si l'on change pour une carte mère supportant le PCi express 3.0?
WandaNoOrchestra
Signaler
WandaNoOrchestra
Je pense que ça doit représenter largement la différence de prix qui sépare une ATI (souvent moins chère) et un Nvidia de gamme similaire, surtout sur 3-4 ans (et avec un Crossfire/SLI, n'en parlons pas). Bon après, mettre la gamme Hawai dans un tel comparatif n'est pas très fairplay dans la mesure ou cette architecture est encore toute nouvelle, il faudra comparer Hawai avec Maxwell. (Mais pour répondre à ta question une 780-Ti consomme 262 Watts, et la R9-290X, 286 Watts, donc écart relativement faible, 24 Watts)
Sharn
Signaler
Sharn
Oui mais sur ma facture en fin d'année ça correspondant à quoi? Prenons la R9 290X et la 780Ti.
WandaNoOrchestra
Signaler
WandaNoOrchestra
Question qui ne veux rien dire en soi. Tout dépend de quelle gamme ou modèle tu parles. De façon générale, les cartes ATI sont bien plus énergivores. Exemple la dernière R9 de chez ATi (Nouvelle architecture Hawaï) consomme 55 watts de plus de la 780 (Ancienne Architecture KEPLER). Mais Nvidia a vraiment frappé fort avec KEPLER (600 & 700) sur les gammes 400 et 500, il y a eu de gros ratages, ce qui a entrainé une grosse remise en question.
Sharn
Signaler
Sharn
A propos de la consommation sur une année la différence de consommation à performance égale entre ATI et Nvidia est pas criante au niveau facture d'après ce que j'ai lu. On peut me le confirmer?
WandaNoOrchestra
Signaler
WandaNoOrchestra
@Hyperion :

Comme tu le dis, ça été confirmé aujourd’hui. Mon article a été rédigé durant ces 3 derniers jours, et a été publié hier. Ensuite, convaincre les éditeurs et développeurs de passer par un tout nouvel API (autre que DirectX, environnement qu'ils maitrisent depuis des années) afin d'obtenir des gains de performances laisse beaucoup de studios circonspects car c'est loin d’être anodin. Ce serait même un des plus gros bouleversement du développement PC depuis des années, et Il faudra vraiment que l'avancée en terme d'économies (financières comme en terme d'optimisations hardware et software) liées au développement soient plus que significatives pour justifier l'investissement et l'apprentissage de Mantle. (pour l'heure, seul EA se montrerait convaincu si je ne me trompe pas.)

Quoiqu’il en soit, les retours étaient bien différents jusqu’à aujourd’hui, et pour l'heure, les partenariats sont encore assez faibles, et rien n'indique (en tout cas pour le moment) que les développeurs l'adoptent en masse. Si tel est le cas, et que les résultats sont vraiment si probants que cela (et tant mieux si c'est le cas) AMD ne ferme pas pour autant la porte à Nvidia afin d’intégrer le programme (de toute façon, ils ne peuvent pas se le permettre).

Bilan : Au pire "Gameworks" sera massivement utilisé (car reposant sur DirectX11, G.Works qui n'est pas un nouvel APi contrairement à Mantle) et au mieux, Les développeurs développeront a terme sur Mantle, et Nvidia appliquera son "Gameworks" sur Mantle. Pour l'heure, il reste néanmoins beaucoup d'incertitudes, (sans même mentionner la possibilité de voir Microsoft annoncer un DirectX 12 dans les mois qui viennent) et dans tous les cas, ce sont les PCistes qui y gagnent.

Un article beaucoup plus mesuré par la.

Cela dit, je vais éditer mon article. (ce que je comptais faire de toute façon)
Hyperion
Signaler
Hyperion
Wanda, tu te trompe assez lourdement sur Mantle d'AMD. Tous les jeux utilisant le Frosebite de DICE l'utiliseront. Ca a été confirmer auj même. Ca représente plus de 15 jeux direct.
Et les autres dev qui en parle sont enthousiastes des premiers résultats.
Cf: http://www.hardware....s-adoptent.html
http://www.hardware....vec-mantle.html
http://www.hardware....s4-15-jeux.html

Donc j'aimerais bien savoir d'ou tu tiens que Mantle est un pétard mouillé. (je rappelle que cet API est très récente et n'est qu'en beta).
czerwinski76
Signaler
czerwinski76
Un article hyper complet ! Merci !!!
Ecikk
Signaler
Ecikk
bon article mais je suis pas très pc et composants
Ariakkan
Signaler
Ariakkan

Si encore il y avait des jeux qui valent le coup sur PC...


:genre:
WandaNoOrchestra
Signaler
WandaNoOrchestra

Si encore il y avait des jeux qui valent le coup sur PC...


Pardon ?

Bon... C'est quand que tu intègres officiellement le staff de Gameblog ? Ils manquent d'actu PC et force est de constater que tu es calé sur ce domaine, en plus d'écrire bien et d'être parfaitement accepté par la communauté du site.


C'est gentil et flatteur mais je pense que Ashe et Fumble font l'affaire pour l'heure. De plus Gameblog a recruté de nouvelles plumes que l'on ne connait pas encore, et de toute évidence, je n'en fais pas parti ;)
imicaali
Signaler
imicaali
Bon... C'est quand que tu intègres officiellement le staff de Gameblog ? Ils manquent d'actu PC et force est de constater que tu es calé sur ce domaine, en plus d'écrire bien et d'être parfaitement accepté par la communauté du site.
Ça serait une très bonne chose, et je suis sérieux, en attendant je continue de traîner discrètement sur ton blog.
Et merci pour ces articles.
oto
Signaler
oto
Je comprend pas qui peut vouloir dépenser 600 euro dans une carte graphique. Vraiment n’importe quoi. Si encore il y avait des jeux qui valent le coup sur PC...
ATOM
Signaler
ATOM
JunXPS
13/11/2013, 18:30
Juste une question j'ai un ami qui arrête pas de me troller vu que je suis possesseur d'une carte nvidia, et il me dit que je suis idiot de payer aussi cher pour un truc que sa ati/amd fait aussi, du genre physx qui est activable sur sa ati juste pour 10 % de ressources en plus et que ça fait pareil, et que nous en revanche on a ni le tress fx ni le mantle à venir.

Une fois ta décision d'achat effectuée, tu auras toujours des points faibles et des points forts sur une marque ou sur une autre. Donc, pour des détails de phacochère tu peux dire à ton pote que tu réfléchis dans la globalité (techniques et à l'usage comme t'a répondu la rédacteur de cet article).
Effectivement payer moins cher à l'entrée et voir sur le long terme (consommation électrique, surchauffe etc) sont deux approches complètement différentes. Si ton pote a mis moins de sous, tant mieux pour lui, mais je pense que tu as pris ta décision sur d'autres critères que le prix. Ce qui fait la différence entre un pc et une console c'est vraiment le choix des composants et qui peut faire peur à certains.
J'ai parlé avec un gars du stand xbox one au Paris Games Week et lui même reconnait que les consoles sont déjà largués techniquement parlant et qu'il a pris une console pour éviter de se prendre la tête et par peur de l'inconnu !
JunXPS
Signaler
JunXPS
J'attend aussi Maxwell avec impatience surtout si ça fout kepler à la rue techniquement.

Édito
















Archives

Favoris