CoreAVC plus fort qu'AVIVO & PureVideo ?

Publié le 12/04/2006 à 21:05 par
Imprimer

Le H.264, aussi connu sous le nom AVC (Advanced Video Coding) ou encore MPEG 4 part 10, est un des 3 formats principaux retenus pour la plupart des vidéo HD. Très gourmand en ressources, son décodage est un défi pour la plupart des machines actuelles qui se retrouvent rapidement à genoux avec les vidéos HD qui affichent un débit et donc une qualité élevée. ATI tout comme Nvidia ont annoncé une accélération de ce format disponible sur leurs dernières cartes graphiques. Du côté d'ATI, elle n'est disponible qu'avec les Radeon X1000 (avec des limitations sur les X1300 et X1600) alors que chez Nvidia elle est disponible sur toutes les GeForce 6 et 7 (à l'exception des 6800 à base de NV40) avec un niveau d'accélération variable d'après les cartes (niveau d'assistance variable, limitation au niveau du débit ou de la résolution etc.).

Le 31 mars est également sortie la version finale d'un décodeur 100% software censé être significativement plus performant : CoreAVC . Nous avons voulu le comparer aux codec de Cyberlink et de Nero avec des vidéos H.264 1080p. Nous avons utilisé une version finale de ceux-ci, c'est-à-dire qui prend en charge à la fois les GPU ATI et Nvidia, contrairement aux versions spéciales d'ATI et Nvidia que les 2 fabricants demandent aux développeurs de lecteurs de vidéo pour mettre en avant leurs nouveaux GPUs. Ces versions n'apportent pas de résultat fiable puisqu'elles désactivent des fonctions sur les GPUs concurrents ou sont issues de branches de développement différentes etc. La machine de test était équipée d'un Athlon FX 55. Passons maintenant aux chiffres de performances obtenus, sachant que la qualité du décodage est identique.

La première vidéo utilisée provient d'Apple, il s'agit de la bande annonce de Serenity.


Le codec CoreAVC s'affiche bel et bien comme plus performant que ceux de Cyberlink et de Nero tout du moins quand ils ne sont pas accélérés par un GPU. Le codec de Nero accéléré par ATI ou par Nvidia affiche des performances similaires à celui de Cyberlink accéléré par la Radeon X1900 XTX mais toutes ces solutions restent en retrait par rapport à la consommation CPU de CoreAVC. Une seule solution permet de passer devant : le couple Cyberlink et GeForce 7900 GTX qui affiche une consommation record de 25% !

La seconde vidéo que nous avons utilisée est la bande annonce de Click qui est nettement plus gourmande que la première.


CoreAVC est cette fois aussi nettement devant ses équivalents de Cyberlink et de Nero. Notez par ailleurs que ces 2 derniers sont incapables de rendre correctement la vidéo, c'est-à-dire à la bonne cadence et sans saccade. Une fois accélérée, la lecture de la vidéo est fluide du côté de Nero et affiche des performances identiques avec la Radeon X1900 XTX qu'avec la GeForce 7900 GTX. Le codec de Cyberlink accéléré par la Radeon X1900 XTX est un rien plus performant, mais une fois accéléré par la GeForce 7900 GTX, il prend une avance plus que significative – seul ce dernier cas s’avère plus véloce que la solution 100% logicielle de CoreAVC.

ATI nous a indiqué que le moteur de décompression utilisé par le codec de Cyberlink est toujours celui du mois de décembre et qu'entre temps (4 mois), une version plus performante a été intégrée dans les drivers. Celle-ci s'interfaçant d'une manière différente, elle ne peut pas encore être exploitée par le codec de Cyberlink. L'ancien moteur d'accélération disparaît d'ailleurs de la version 6.4 des Catalyst qui vient de débarquer (nous avons utilisé les 6.3 pour ce test), ce qui veut dire que ceux-ci n'offrent plus aucune accélération du décodage H.264 dans ce cas. Il faudra attendre les Catalyst 6.5 ou 6.6 pour que le nouveau moteur soit exploité et/ou exploitable, étant donné que Cyberlink ne veut semble-t-il plus toucher à son codec et qu’il faudra donc que ATI trouve un moyen d’utiliser le nouveau moteur lorsqu’un codec fait appel à l’ancien..

Enfin, nous avons voulu observer la consommation affichée par diverses solutions :


Notez tout d'abord qu'au repos, la 7900 GTX consomme quelques watts de plus que la X1900 XTX, nous avons donc dû mesurer la consommation de toutes les solutions software avec les 2 cartes de manière à ne pas fausser les résultats.

CoreAVC permet d'économiser 16 watts par rapport au codec de Cyberlink. Une fois celui-ci accéléré par la X1900 XTX, la consommation globale augmente de 7 watts ce qui veut dire que la carte graphique consomme plus que ce qu'elle ne fait économiser au niveau du CPU lorsqu’elle ne le décharge pas assez. Du côté de chez Nvidia la situation est inversée puisque la consommation baisse de 23 watts une fois l'accélération activée ! Relativement parlant, l'accélération de Nvidia permet donc la plus faible consommation.

Notez pour finir qu'il s'agit ici d'un simple aperçu basé sur des bandes annonces, et que les choses peuvent évoluer au fil des mises à jour de driver et de codec. De plus, les résultats ne deviendront réellement représentatifs de la réalité que quand du contenu réel sera disponible avec un débit que l'on ne connaît pas encore avec précision et qui influe fortement sur les performances en décompression. Les performances de CoreAVC et du couple Cyberlink / NVIDIA restent dans tous les cas excellentes, et l’arrivée future d’une version de CoreAVC tirant partie de l’accélération GPU est prometteuse étant donné les résultats obtenus en mode software.

Vos réactions

Top articles