Batterie Asus K53SD |
Posted: July 22, 2014 |
Si vous suivez l'actualité liée aux cartes graphiques, ou possédez un système CrossFire X, vous n'êtes probablement pas sans savoir que le multi-GPU d'AMD a tendance à souffrir plus facilement d'un manque de fluidité effective que son équivalent SLI de Nvidia. Comme nous l'avions entrevu à travers un pilote prototype lors du lancement de la Radeon HD 7990, AMD s'attaque enfin au problème, une initiative en train de se concrétiser. Les pilotes Catalyst 13.8 beta viennent ainsi de faire leur apparition, avec une petite journée de retard par rapport au planning initialement prévu. Ces pilotes introduisent une nouvelle fonctionnalité, dénommée Frame Pacing, identique au Frame Metering de Nvidia, si ce n'est qu'elle est débrayable via le panneau de contrôle (activée par défaut). Elle est actuellement réservée aux applications DirectX 10 et 11 jusqu'en 2560x1600, le support pour DirectX 9, OpenGL et les résolutions 4k ou surround étant prévu pour plus tard. Rappelons que la fluidité d'un jeu 3D rendu en temps réel sur PC dépend de nombreux facteurs. Les principaux sont le moteur du jeu et le GPU, qui doivent chacun être capables d'exécuter leur tâche suffisamment vite et avec une bonne régularité. Entre ces deux éléments se trouvent les API (DirectX) et les pilotes qui doivent faire en sorte que de ne pas entraver le bon avancement des images dans le pipeline 3D. Dans le cas du multi-GPU, un second paramètre entre en jeu. Puisque plusieurs images sont en général préparées à l'avance par le moteur de jeu, pour disposer d'un buffer qui évite certains ralentissements, il peut arriver que deux GPU (ou plus) puisent dans ce buffer presqu'en même temps. Deux images dont l'intervalle prévue par le moteur du jeu est régulière peuvent ainsi être finalisées et ensuite automatiquement affichées presqu'en même temps quand la synchronisation verticale est désactivée. Une perte de régularité qui affecte la fluidité ressentie. Le Frame Pacing et le Frame Metering s'attaquent à ce problème en insérant un délai artificiel entre les images lorsque cela est nécessaire pour forcer la régularité d'affichage.
Tout d'abord les performances, qui varient très peu avec le nouveau pilote si ce n'est dans deux cas. Le premier est Metro Last Light pour lequel les Catalyst 13.8 beta apportent un gain de performances général en single ou multi GPU. Ensuite nous avons observé un bug étrange : avec les Catalyst 13.6b2, mais également avec les 13.5b2, CrossFire X ne s'active pas dans The Witcher 2 quand le jeu est lancé en 2560x1600. Ce problème n'existe pas avec les 13.8 beta. Nous avons également rencontré un même problème dans Anno 2070, cette fois autant avec les anciens qu'avec les nouveaux pilotes. Contrairement à The Witcher 2 pour lequel ce n'est pas possible, il nous a par contre suffit de passer au 1920x1080 à l'intérieur du jeu et de revenir au 2560x1600 sans le quitter pour pouvoir profiter de CrossFire X. Comme dans le test initial de la Radeon HD 7990, nous avons observé le ressenti, que nous avons traduit en couleurs. Le vert vif représente une excellente fluidité, le vert pâle une fluidité assez bonne, le bordeaux un résultat catastrophique et différents niveaux intermédiaires : L'évolution est de toute évidence bénéfique dans ces cas de figures qui tournent en général autour des 60 fps et les résultats sont légèrement meilleurs que ceux que nous avions obtenus avec le premier pilote prototype fourni par AMD. Battlefield 3, Crysis 3 et GRID 2 affichent une excellente fluidité alors que les cas les plus problématiques progressent. Tout n'est pas parfait cependant. Les saccades dans Anno 2070 et The Witcher 2 restent plus marquées que sur GeForce, malgré le niveau de FPS supérieur. De gros ralentissements se font sentir dans certains passages d'Assassin's Creed 3 et dans Metro Last Light, dans ce dernier cas probablement lors de chargements d'éléments de la scène. Enfin la fluidité dans Far Cry 3 reste très mauvaise et il est difficile d'apprécier le jeu dans ces conditions. En conclusion, AMD fait un pas dans la bonne direction même s'il reste du travail et des cas problématiques incompréhensibles. Comment se fait-il qu'un jeu tel que Far Cry 3 pose problème à ce point alors qu'AMD était proche des développeurs ? Certes ce moteur n'est pas le plus efficace pour garantir une bonne fluidité, mais si Nvidia y est parvenu il n'y a pas de raison qu'AMD ne puisse en faire de même. Notre avis concernant la Radeon HD 7990 doit-il être revu suite à l'arrivée de ces pilotes ? Ses résultats sont meilleurs, c'est vrai, mais est-ce suffisant ? Nous sommes partagés sur ce point. Par contre nous sommes convaincus que c'est trop tard pour cette génération. De nouveaux produits sont attendus pour l'automne et nous ne pouvons que vous conseiller de patienter, ce qui vous permettra soit de pouvoir éviter le recours au multi-GPU, qui ne saurait être parfait, soit de profiter de pilotes encore plus aboutis et de performances supérieures.
Nvidia a intégré le Frame Metering dans ses pilotes depuis longtemps et commencé il y a quelques mois à distribuer à la presse un outil, FCAT, destiné à quantifier cette régularité d'affichage. A force d'insistance, Nvidia est parvenu à presque généraliser son utilisation dans la presse anglo-saxonne, qui est souvent plus réceptive aux demandes d'un acteur important de l'industrie. Comme nous l'avons déjà expliqué dans un article fourre-tout au niveau des réflexions sur le sujet, nous avons de notre côté décidé de ne pas utiliser cet outil dont nous estimons les résultats trompeurs puisqu'ils mesurent le bon fonctionnement du Frame Pacing/Metering et non la fluidité qui est ce qui nous intéresse au final. Dans certains cas ils donnent des indications sur celle-ci, dans d'autres ils indiquent un problème inexistant en pratique et dans d'autres ils masquent un problème de fluidité. Seul un ressenti permet actuellement de placer les données fournies par cet outil dans l'une ou l'autre catégorie… Si le ressenti est de toute manière nécessaire, quelle utilité pour FCAT ? Si ces données en elles-mêmes ne veulent rien dire, elles peuvent par contre être utiles pour compléter ou quantifier un ressenti. Malheureusement, selon nous la plus-value alors apportée ne justifie pas le temps passé à obtenir ces données et il est bien plus intéressant d'observer le comportement dans plus de jeux. Certains diront que le ressenti est subjectif. C'est vrai, mais il n'y a pas d'alternative. Au sujet de la fluidité, une partie des données prétendument objectives présentées par certains confrères n'en sont pas réellement. Elles sont en fait issues d'un traitement des données FCAT effectué avec des formules dont les paramètres clés sont totalement subjectifs et ont été pensés au départ par Nvidia pour mettre en avant ses produits, notamment en essayant de réduire la longueur des barres de la concurrence dans les graphes des performances avec un FPS recalculé. Ces formules, plus ou moins personnalisées - ou pas du tout, et les chiffres qu'elles génèrent servent avant tout à masquer le côté subjectif de l'analyse FCAT, alors que leur rigidité n'est pas adaptée à la complexité des paramètres qui font qu'un rendu semble fluide ou pas. Voici deux exemples pour comprendre le problème en pratique. Si une carte bi-GPU débite 120 fps sur un moniteur 60 Hz, avec un niveau d'irrégularité maximal qui fait qu'une image sur deux n'est presque pas affichée, FCAT va massacrer son résultat. En pratique, la fluidité sera pourtant excellente, avec un ressenti peut-être même supérieur à celui d'une carte qui affiche une régularité parfaite mais qui aurait ajouté un délai et donc de la latence sur une partie de l'image. A l'inverse, si un moteur du jeu est dépassé par les évènements (ce qui peut venir de lui-même directement ou être lié au comportement du GPU ou des pilotes) et ne fait plus avancer la simulation régulièrement, mais que le Frame Pacing/Metering force une régularité parfaite d'affichage, FCAT va nous dire que le résultat est excellent, alors que le ressenti montrera que le jeu n'est pas fluide du tout.
Il y a malheureusement énormément de confusion sur ce sujet très complexe, source de calvitie pour de nombreux développeurs de jeux vidéo PC. Une confusion probablement alimentée par le fait que trop de médias reprennent en cœur le message simplifié qui leur a été préparé par Nvidia, en ne prenant pas garde de ne pas mélanger tout et n'importe quoi au sujet de la régularité, de la fluidité, des saccades et micro-saccades. Leurs causes sont en réalité multiples, les solutions aussi et le Frame Pacing/Metering n'est pas une fin en soi. Il pourrait par exemple être intéressant de rendre dynamique l'activation de ces techniques pour optimiser leur utilité pratique, voire de calibrer leur fonctionnement non pas pour forcer strictement une cadence régulière mais également pour essayer de réduire certaines nuisances telles que le tearing qui survient sans synchronisation verticale (le délai introduit pourrait essayer de déplacer le tearing sur les bords supérieur/inférieur de l'image affichée à l'écran). Alors qu'il a fallu à Intel 10 mois entre la sortie des Sandy Bridge et celle des Sandy Bridge-E, c'est plus de 16 mois après l'arrivée le passage en 22nm sur LGA 1155 que le LGA 2011 a enfin droit à son Tick Ivy Bridge, les Ivy Bridge-E. N'est-ce pas un peu tard alors que l'architecture suivante, Haswell, a déjà fait son apparition il y a deux mois ? C'est ce que nous allons voir au travers du test du Core i7-4960X ! Le contrôleur mémoire a également été optimisé afin de supporter plus facilement la gestion de mémoires DDR3 haute fréquence. Officiellement toutefois ceci se traduit en pratique seulement par la gestion de la DDR3-1866 avec une barrette par canal (DDR3-1600 avec deux), contre DDR3-1600 dans tous les cas sur SNB-E. Cette mémoire est toujours gérée sur 4 canaux, ce qui permet au-delà de la bande passante de disposer de 8 DIMM et d'un maximum de 64 Go de mémoire, le double des plates-formes LGA 115x. Ce n'est pas le seul point sur lequel est nettement plus généreux puisque comme les prédécesseurs les IVB-E intègrent pas moins de 40 lignes PCI-Express avec un contrôleur très flexible pouvant répartir ces lignes sur un maximum de 10 ports (en x4 donc). Un avantage certains, surtout dans le domaine professionnel pour qui voudrait cumuler les périphériques PCI-Express ayant de gros besoins de bande passante, comme des cartes graphiques utilisées pour le GPGPU. Pour une utilisation plus classique par contre, les plates-formes Z77/Z87 qui permettent de gérer nativement 2 ports en x8/x8 ou 3 ports en x8/x4/x4 sont suffisantes grâce au PCI Express 3.0. Puisqu'on parle du PCI Express, sachez que les Core i7 basés sur les IVB-E sont cette fois pleinement compatibles avec cette dernière version. Les Core i7 SNB-E étaient en effet limités officiellement à la version 2.0, alors que les Xeon basés sur les mêmes puces étaient 3.0. Avec une carte AMD PCI Express 3.0, c'est toutefois la vitesse de ce bus qui était utilisée par défaut, mais pas avec une carte Nvidia, le constructeur se limitant aux spécifications officielles d'Intel. Il faudra d'ailleurs attendre de futurs pilotes GeForce pour que le PCI Express 3.0 soit activé par défaut, pour l'instant c'est le 2.0 comme sur SNB-E.
Une petite puce, toujours 6 cœurs au mieux Il en découle une puce d'une taille réduite drastiquement, 257mm² pour 1,86 milliards de transistors contre 435mm² et 2,27 milliards de transistors pour la génération précédente. A titre de comparaison Sandy Bridge fait 216mm², Ivy Bridge 160mm² et Haswell dans sa version utilisée sur LGA 1150 est à 177mm². On revient en fait à une taille proche du Gulftown, le premier 6 cœurs lancé en 2011, qui était à 248mm². Chez AMD un Deneb (Phenom II X4 45nm) fait 258mm², contre 315mm² pour un Vishera 32nm (FX AM3+) La gamme est composée comme suit, les chiffres pour la colonne Turbo étant les coefficients utilisés avec 1/2/3/4/5/6 cœurs actifs. Ces processeurs seront disponibles à compter de demain 10 septembre : Comme d'habitude on retrouve donc un modèle phare qui fait office de vitrine, c'est ici le 4960X qui est vendu à un prix prohibitif. La fréquence de base gagne 100 MHz par rapport au 3970X malgré un TDP qui revient à 130W, par contre on ne note pas de gain au niveau du Turbo maximal sur un cœur ou six cœurs. Le comportement est par contre légèrement sur des intermédiaires, avec une baisse de 100 MHz sur 2 cœurs actifs mais un gain de 100 MHz sur 3 cœurs actifs par rapport à son prédécesseur. L'i7-4930K gagne 200 MHz sur sa fréquence de base par rapport à l'i7-3930K, mais cela masque un écart moins important lorsque le Turbo est enclenché comme c'est généralement le cas. Généralement le gain n'est que de 100 MHz, avec par contre une perte de 100 MHz sur 2 cœurs ! Enfin le l'i7-4820K dispose contrairement à l'i7-3820 d'un coefficient multiplicateur libre en montée, un bon point même si ce n'était pas trop dommageable puisque la plate-forme LGA 2011 permet d'overclocker par le bus. La fréquence de base augmente de 100 MHz, les fréquences atteintes en Turbo sont identiques.
La nouvelle gamme Atom d'Intel peut d'ailleurs paraitre un peu complexe à comprendre puisque l'on a vu s'enchainer de multiples noms de code. Une petite clarification s'impose. Pour le 22nm, Intel a développé une nouvelle architecture processeur pour ses coeurs x86, une architecture baptisée Silvermont et qui se distingue de celle des Atom précédents par le fait qu'il s'agisse de coeurs dits Out Of Order - le coeur peut changer l'ordre des instructions qu'il exécute pour optimiser les performances, de quoi augmenter nettement l'IPC de cette nouvelle architecture. Silvermont se retrouve ainsi utilisée dans une grande variété de puces de type SoC (qui intègrent en plus des coeurs CPU des contrôleurs mémoires, parfois un coeur graphique et toujours un southbridge) visant divers usages, le constructeur a misé avant tout sur un design modulaire et peut ainsi proposer des versions assez différentes en fonction des besoins. Intel a ainsi annoncé la semaine dernière les SoC Avoton qui utilisent eux aussi des cores Silvermont côté CPU mais disposent d'une partie SoC dessinée pour des usages serveurs (par exemple dépourvue d'USB 3.0, et de partie graphique). D'autres déclinaisons sont à venir, comme par exemple Merrifield que l'on mentionnait hier pour le marché des smartphones. Aujourd'hui, les Atom Z3000 représentent la déclinaison Bay Trail. Sur ce diagramme, on peut déjà deviner un certain nombre de différences entre Avoton et Bay Trail. D'abord sur le nombre de cores, là ou Avoton était disponible jusqu'en version 8 coeurs - marché des tablettes oblige - on se contentera en fonction des modèles de deux à quatre coeurs. Côté mémoire si l'on retrouve toujours jusque deux contrôleurs 64 bits, le type de mémoire supporté change. La DDR3L est accompagnée de la gestion de la LPDDR3 sur Bay Trail On notera enfin en bas la gestion - attendue - de l'USB 3.0 qui était là aussi absent d'Avoton. Pour BayTrail, plutôt que d'opter pour un bloc PowerVR plus moderne (à l'image des SoC d'Apple sur l'iPad par exemple), Intel utilise un bloc de son propre cru. Il s'agit d'un GPU dit de génération 7, à savoir la génération que l'on retrouvait dans les processeurs Ivy Bridge. Bien entendu, les performances ne seront pas au niveau d'un HD 4000 ou même d'un HD 2500, Intel a effectué un certain nombre de coupes pour permettre de tenir dans le TDP d'un SoC dédié aux tablettes, la plus évidente concernant le nombre d'unités (les blocs EU) qui sont au nombre de 4 (6 EU pour un HD 2500, 16 pour le HD 4000). Côté fréquence, la puce peut atteindre 667 MHz via un mécanisme Turbo sur lequel on reviendra. On note surtout la présence du bloc QuickSync pour le décodage/encodage vidéo. On trouve ainsi un décodage matériel du MPEG-2, 4, H.264/MVC ainsi que VC1, VP8 et MJPEG. Côté encodage, seul le H.264 est pleinement accéléré avec une accélération partielle du MPEG2. Il s'agit donc d'une sorte de mix pour ce bloc entre celui d'Ivy Bridge (qui ne gère pas non plus l'encodage complet du MPEG2) et celui d'Haswell (qui gère le MJPEG).
Côté écrans, Bay Trail dispose de deux pipes internes qui permettent de piloter jusque deux sorties, au format HDMI ou DisplayPort et gérant au choix 1080p ou 2560x1440 au maximum en 60 Hz. Notez enfin sur le sujet du graphisme que Bay Trail dispose d'un bloc dédié au contrôle de deux caméras qui permet des captures de photos en continue et d'enregistrer des vidéos jusqu'en 1080p60. Ce bloc dispose également d'un certain nombre de filtres de traitement des images comme la réduction du bruit ou la stabilisation vidéo. La base de l'architecture Piledriver reste le Cluster Multi-threading (CMT). Un processeur 8 cœurs basés sur le CMT est en fait basé sur 4 modules, et au sein de chaque module 2 cœurs se partagent un certain nombre de composants. Chacun de ces cœurs n'est donc pas complet ce qui a bien entendu un impact sur leur comportement en pratique, deux cœurs d'un module obtenant environ 80% des performances de deux cœurs complets selon AMD. Vous aurez noté que notre tableau de spécifications ne comporte pas de prix, pour cause ces processeurs sont absent de la liste de prix officielle publiée sur le site d'AMD. Uniquement vendus en version WOF (WithOut Fan, sans ventirad), ces processeurs sont en effet réservés officiellement uniquement aux intégrateurs pour des PC complets. C'est tout de moins ce qui était prévu initialement, puis rapidement AMD a autorisé la vente du processeur hors d'un PC… mais à condition qu'il soit vendu avec une autre pièce, par exemple une carte mère compatible ou une alimentation de 1000 watts ou plus ! Une vente liée pour le moins incompréhensible, voire inacceptable. (MAJ du 06/10/2013 : AMD autorise désormais la vente de ces processeurs à l'unité, une bonne chose !) Autre point, nous n'avons pas pu obtenir d'échantillon de FX 9590 auprès d'AMD malgré une première demande d'échantillon en juillet et une relance en août. Il faut savoir que d'habitude, AMD tout comme Intel sont très réactifs quand il s'agit de fournir un processeur haut de gamme pour un test, seuls les processeurs d'entrée de gamme sont parfois difficiles à obtenir. A l'époque pourtant le FX 9370 et surtout le FX 9590 étaient vraiment très haut de gamme, puisqu'à environ 300 et 800 € si on retirait le prix de l'autre composant du bundle ! Des tarifs ramenés fin août à 250 et 350 € environ, une baisse de 450 € sur le FX 9590 qui a dû être appréciée par les éventuels acheteurs…
Si il était hors de question de dépenser la somme initialement demandée pour tester ce processeur, à défaut d'échantillon, suite à la baisse de prix nous avons donc décidé de sauter le pas et d'acquérir le premier processeur à 5 GHz.
|
|||||||||||||||||||||||||||||||||||||||||||
|