[helpc] GeForce 4 Ti au banc de torture !

  • From: "Shaka( Rudy)" <strub.rudy@xxxxxxxxx>
  • To: <helpc@xxxxxxxxxxxxx>
  • Date: Mon, 15 Apr 2002 05:42:48 +0200

GeForce 4 Ti au banc de torture !
Posté le Mardi 09 avril 

 <http://www.tt-hardware.com/topics.php?op=viewtopic&topic=72>
<http://www.tt-hardware.com/topics.php?op=viewtopic&topic=72> Test
Cartes3D <http://www.tt-hardware.com/topics.php?op=viewtopic&topic=72>
<http://www.tt-hardware.com/article.php?sid=2431&mode=flat&order=0>
<http://www.tt-hardware.com/article.php?sid=2431&mode=flat&order=0>
<http://www.tt-hardware.com/article.php?sid=2431&mode=flat&order=0>
Après les GeForce 4 MX, c'est la gamme Ti qui est passée entre nos
mains. La différence entre ces 2 gammes et claire et nette. Avec les
GeForce 4 Ti, n'Vidia n'a pas hésité à mettre tous les ingrédients
nécessaires à la création d'un monstre de puissance. Nous avons donc
pris le temps de torturer ce monstre sous tous les angles… C'est qu'il
est coriace le bougre ! Est-il possible de mettre le GeForce 4 Ti à
genoux ? Peut-être… Que vaudra le GeForce 4 Ti 4200 ? Mmm... 


Par : Damien Triolet <mailto:tridam@xxxxxxxxxxxxxxx>  
Date : le 8 avril 2002 
Copyright tt-hardware.com 2002, tous droits réservés




GeForce 4 Ti pour tous ? 

Autant aborder le négatif avant le reste. Le gros point noir de la
GeForce 4 Ti 4600 est son prix, tout le monde en conviendra. Ce genre de
carte graphique n'est bien entendu pas destinée au premier venu, n'Vidia
en convient d'ailleurs. Il s'agit avant tout d'un "petit" bijou réservé
au hardcore gamer fortuné. Il faut cependant relativiser ce défaut et
éviter les balourdises du type : "A mort n'Vidia et ses cartes
graphiques toujours plus chères !". Il y a toujours eu un haut de gamme,
un milieu de gamme et un bas de gamme. Le choix d'une carte graphique,
tout comme celui d'une voiture dans une autre mesure, se fait en
concertation avec son banquier. Certains roulent en vélo, d'autres en
Ferrari… Celui qui n'a pas de GeForce 4 Ti s'en sortira très bien dans
les jeux actuels. Celui qui a la chance de pouvoir en acheter une aura
droit à mieux et devrait être tranquille à ce niveau pendant un petit
bout de temps. Et puis n'oublions pas que les cartes graphiques
onéreuses ont toujours existées. En 97, à sa sortie, l'ATI Rage Pro
coûtait plus de 400 €. Quelques mois après, la Voodoo 2 12 Mo est sortie
au prix de 375 €. La GeForce 256 coûtait 500 € à sa sortie. Le record a
été battu par la GeForce 2 Ultra qui est sortie au prix effrayant de 750
€. La Radeon 8500 coûtait également 500 € à sa sortie. Aujourd'hui,
c'est au tour des GeForce 4 Ti de pointer le bout du nez. La première,
la 4400, se trouve à moins de 400 €. La seconde, le haut de gamme
absolu, coûte quant à elle un peu plus de 500 €. C'est cher bien
entendu, mais pas plus que les autres cartes en leur temps. Les
passionnés seront prêts à mettre le prix, les autres pas. 

L'autre défaut apparent de la carte est sa taille. Certaines mauvaises
langues y verront le début de l'intégration des travaux de 3dfx. La
taille de la carte est due à plusieurs choses. Premièrement, le design
de référence (utilisé par tous jusqu'ici) est prévu pour tout intégrer :
2 sorties DVI, une sortie VGA, la connectique VIVO, le contrôleur VIVO,
le contrôleur Personal Cinema, les contrôleurs DVI, 128 Mo… Ensuite, les
fréquences élevées exigent un système d'alimentation de premier ordre.
Il prend donc une place conséquente, d'autant plus que n'Vidia l'a mis
bien à part afin d'éviter au maximum les interférences néfastes. Cette
taille bien qu'apparemment nécessaire, posera des problèmes à certains
utilisateurs. 

Sur la K7N420 Pro de MSI, la GeForce 4 Ti ne pourra pas prendre place
dans le port AGP si le connecteur de la nappe IDE n'est pas extrêmement
mince. 


Sur l'AKR4 de Transcend, il faut également veiller à ne pas avoir des
fiches IDE trop hautes. 


Sur la 8KHA d'Epox, il faut enlever un condensateur assez imposant. 


Sur la NV7-133R d'Abit, il faut pousser légèrement un condensateur pour
permettre à la GeForce Ti de prendre place.


Il est possible d'enficher la GeForce 4 Ti sur toutes ces cartes (en
poussant un peu si nécessaire) excepté sur la 8KHA. Des problèmes de ce
genre risquent de se retrouver sur d'autres cartes-mères. Pour être
certain qu'une GeForce 4 Ti puisse prendre place sur votre carte-mère,
vous devez vous assurer que derrière le port AGP (sans vous soucier d'un
éventuel système de rétention) il y ait bien 80 mm durant lesquels il
n'y a aucun obstacle de plus de 15 mm. Il faut également vérifier qu'il
n'y ait pas de composant de plus de 20 mm aux alentours. 


La carte 

Dans cet article, nous nous intéresserons avant tout aux performances du
GeForce 4 Ti en général. Pour ce faire, Asus nous a fourni une V8460
Ultra ainsi qu'une V8440, utilisant respectivement un GeForce 4 Ti 4600
et 4400. 



La première et la 4400. Vous remarquerez que la 4600 que nous a fournie
Asus n'est pas équipée d'une sortie TV. C'est très étrange pour une
carte de ce prix… Les designs sont similaires mais pas identiques.
Ainsi, sur la 4400, un des condensateurs est plus bas que sur la 4600,
ce qui signifie qu'il y a plus de risques que ça coince. Par exemple,
alors qu'il est très aisé d'enficher une 4600 sur la K7N420 Pro, la
tâche est presque impossible avec une 4400… 

Le système de refroidissement choisi par Asus n'est pas un foudre de
guerre. Il semble même être assez limite sur une GeForce 4 Ti 4600
lorsque le soleil se montre. Nous avons eu pas mal de plantages avec
cette carte. L'instabilité se montrait systématiquement dans la scène
Dragothic de 3D Mark 2001. La dissipation du radiateur n'est pas
extraordinaire… Il se peut également que ce soit LA carte testée que
nous devrions mettre en cause. Nous attendons la réponse d'Asus à ce
sujet. 


Le GeForce 4 Ti c'est quoi ? 

Pour rappel, le GeForce 4 Ti est un GeForce 3 amélioré. Premièrement,
ses fréquences sont très élevées : 300 MHz pour le core et 325 MHz pour
la mémoire (GeForce 4 Ti 4600). Le GeForce 4 Ti 4400 se contente d'un
"petit" 275/275. La mémoire vidéo passe de 64 Mo à 128 Mo. Outre ces
différences "externes", le GeForce 4 Ti bénéficie également
d'améliorations internes, la principale étant l'apparition d'une seconde
unité de calcul des Vertex Shader. Couplée à l'augmentation de
fréquence, le GeForce 4 Ti bénéficie théoriquement d'une puissance de
calcul 3 fois supérieure à celle de la GeForce 3 ! 

La Lightspeed Memory Architecture, qui permet d'éviter de gaspiller
inutilement des ressources, a elle aussi été mise à jour. Les caches
internes ont été corrigés, l'Occlusion Culling a été amélioré et le
contrôleur mémoire est maintenant capable de "préchauffer" à l'avance la
zone mémoire qui va être sollicitée. Voici un extrait de notre preview
du GeForce 4 qui détaillait les nouveautés : 
Pixel Pipeline plus performant ? 
Le nombre de pipeline ainsi que leur niveau reste inchangé par rapport
au GeForce 2 et 3. A savoir, 4 pipeline capables d'appliquer 2 textures.
Cependant, leur vitesse change puisqu'elle passe à 300 MHz pour la
version 4600. Soit une augmentation de 50 % par rapport à la GeForce 3
et de 30 % par rapport à la GeForce 3 Ti500. Il s'agit donc ici d'une
petite évolution. 

Enorme bande passante mémoire ? 
Premièrement, la mémoire passe de 64 à 128 Mo. Un bond qui pourrait être
utile dans le futur. La vitesse de la mémoire passe de 250 à 325 MHz.
L'augmentation est donc de 30 % également. Une évolution en accord avec
la montée en fréquence du GPU. 
N'Vidia en profite pour améliorer la Lightspeed Memory Architecture. La
nouvelle version dispose ainsi d'un Occlusion Culling plus efficace afin
d'éviter de calculer des pixels inutiles. L'Occlusion Query est toujours
de la partie. Cette fonction permet de tester une région au lieu d'un
pixel. Le chip graphique va rend un cube invisible (ou une autre
primitive) dans cette région. S'il est entièrement masqué, tous les
objets contenus dans ce cube ne sont pas calculés. Cela permet d'éviter
très facilement de ne pas calculer les 200 arbres qui sont de l'autre
côté d'un tunnel. 
Le Quad Cache est un système de caches destinés à éviter d'user
inutilement la précieuse bande passante mémoire. Ces caches (dont
certains existaient déjà avant) sont destinés, chacun, à recevoir des
données particulières : primitives, pixels, vertices ou texels. Nous
pouvons ainsi imaginer, par exemple, qu'ils vont permettre de réduire la
perte de performances engendrée par l'activation de l'anisotropic
filtering. 
Une dernière nouveauté vient prendre place dans la Lightspeed Memory
Architecture. Il s'agit du Memory Auto-Precharge. L'organisation interne
de la mémoire fait qu'il faut "précharger" la partie de la mémoire dont
on a besoin avant d'y accéder. Ainsi, lorsque des données situées dans
une autre partie de la mémoire sont nécessaires, il y a une dizaine de
cycles qui sont perdus. L'Auto-Precharge permet au GPU d'anticiper un
changement de zone mémoire et de la précharger à l'avance. Quelques
précieux cycles sont ainsi économisés. 

Vertex Shader plus performant et moins contraignant ? 
Il ne peut pas être moins contraignant, ce côté du problème devant être
résolu par Microsoft et DirectX. Les performances sont par contre revues
fortement à la hausse, tout comme le Radeon 8500 et le XGPU de la Xbox,
le GeForce 4 bénéficie d'une seconde unité de calcul des Vertex Shader.
Couplé à l'augmentation de fréquence, sa puissance triple par rapport à
celle de la GeForce 3 ! Le GeForce 4 surclasse également le XGPU. 

Pixel Shader harmonisé ? 
N'Vidia n'est pas resté aux Pixel Shader 1.1 de DirectX 8.0 mais n'est
pas passé à la version 1.4. Les pipelines de rendu ont été légèrement
optimisés afin de supporter la version 1.3, mais pas le 1.4. C'est
dommage. D'un autre côté, cela devrait rassurer les possesseurs de
GeForce 3. Les Pixel Shader 1.1 seront ainsi utilisés (la version 1.3
n'apporte pas d'énorme différence). La version 1.4 supportée par ATI,
bien que plus aboutie, ne les effacera pas. Reste à espérer pour ATI que
les programmeurs prennent le temps d'intégrer la version 1.4 des PS à
leur moteur graphique (même si la Radeon 8500 se débrouille avec les PS
1.1). 
Le chip devrait être également être plus performant lors de
l'application de 4 textures par passe. Vu que la GeForce 4 Ti ne peut
appliquer que 2 textures, le pixel doit repasser une seconde fois dans
la zone de texturing. Ce "loopback" est maintenant plus rapide. 

FSAA plus efficace ? 
C'est ici que se trouve l'une des plus grosse nouveauté du GeForce 4.
Elle se nomme Accuview. N'Vidia fait un très bon usage du multisampling,
ce qui lui permet de réaliser du HRAA Quincunx "for free" ! N'Vidia
annonce un GeForce 4 2x plus rapide que le GeForce 3 une fois le HRAA
activé ! N'Vidia n'oublie donc pas de conseiller aux testeurs de
réaliser les benchs avec FSAA… 
Une nouvelle forme d'antialiasing fait son apparition. Celle-ci tient
compte des subpixels (éléments plus petits qu'un pixel ; utile pour les
câbles électriques par exemple). 

Support du Truform et du DualDisplay ? 
Pas de Truform. Dommage. 
Par contre, le TwinView, rebaptisé nView, fait son apparition dans les
cartes graphiques haut de gamme de n'Vidia (il était temps!). Les
drivers permettent de réaliser toutes les manipulations qui vont de
paire avec cette fonction.


Les tests ! 

Configuration : 
*       Athlon XP 1800+ 
*       KT266A 
*       512 Mo DDR CAS 2 
*       Windows XP 
*       Detonator XP 28.32 
*       Drivers ATI 7.66

Nous avons réalise pas mal de benchs pour évaluer l'intérêt du GeForce 4
Ti mais aussi les améliorations apportées par les ingénieurs de n'Vidia.
Les graphes sont tous en double. Le premier compare les performances des
GeForce 3 Ti 200, GeForce 3 Ti 500, Radeon 8500LE, Radeon 8500, GeForce
4 MX 440, GeForce 4 Ti 4400 et GeForce 4 Ti 4600. Nous avons également
"underclocké" une GeForce 4 Ti afin d'obtenir les fréquences de la
GeForce 4 Ti 4200 128 Mo (250/222). Le second graphe compare les
différentes architectures : GeForce 3, GeForce 4 MX, Radeon 8500 et
GeForce 4 Ti. Pour ce faire, nous avons cadencé toutes les cartes à la
fréquence de 250 MHz pour le core et la mémoire. Nous n'avons fait aucun
bench dans des résolutions inférieures au 1024x768 32 bits. Jouer en
640x480 avec une GeForce 4 Ti serait légèrement stupide. 


3D Mark 2001 SE – Game 


Ce premier graphe représente les performances de toutes les cartes dans
la partie "game" de 3D Mark. La GeForce 4 MX est bonne dernière, suivie
de très près par la GeForce 3 Ti 200. La scène Car Chase High (Lobby
High également) semble très dépendante du CPU. Le résultat est par
conséquent identique sur toutes les cartes graphiques. Dans Dragothic,
la GeForce 4 Ti remet les autres à leur place. La démo Nature est
également très intéressante. Les 2 cartes d'ATI s'en tirent très bien et
la GeForce 4 Ti a du mal à prendre l'avantage. 


Quand toutes les cartes sont cadencées aux même fréquences, la GeForce 4
Ti montre qu'elle dispose d'un core très performant. A l'opposé, la
GeForce 4 MX montre ses faiblesses. La Radeon 8500 et la GeForce 3 font
jeu égal. Notez que dans Nature, la GeForce 4 Ti est étrangement 14%
moins performante que la GeForce 3… Ceci est peut-être dû à un
réarrangement interne effectué par n'Vidia pour pouvoir monter en
fréquence ou pour supporter les Pixel Shader 1.3. 


3D Mark 2001 SE – Technology 


Nous abordons maintenant la partie plus technologique de 3D Mark. Nous
avons exclu des graphes le test "Advanced Pixel Shader" qui ne présente
aucun intérêt à nos yeux : il ne supporte pas les PS 1.4 et les
résultats sont exactement proportionnels à ceux de l'autre test Pixel
Shader. Le fillrate des GeForce 4 Ti est énorme et atteint 2320
MTexels/s ! Pas mal. La puissance géométrique est également au plus haut
niveau : elle est doublée par rapport aux GeForce 3. Les Radeon se
trouvent au milieu. Dans les tests du Bump Mapping, n'Vidia montre son
savoir faire. Sur ce point, ATI n'est pas du tout au même niveau. Ce qui
n'est pas le cas en ce qui concerne les Vertex Shader ! La Radeon est
ici devant la GeForce 4 Ti. La GeForce 4 Ti et la Radeon sont bien plus
douées que la GeForce 3 pour manipuler les Point Sprites. 


Le core du GeForce 4 Ti est bien le plus performant. Cependant, ses
résultats ne sont plus si époustouflants par rapport aux autres cartes
une fois que les fréquences sont identiques. Le Radeon 8500 s'en tire
plutôt bien excepté en Bump Mapping où il est loin derrière (tout comme
le GeForce 4 MX). Le Fillrate en multitexturing montre que les
améliorations apportées à la LMA sont utiles mais aussi que le GeForce 4
MX n'est pas fait pour ce sport… 


Quake III 


Et oui, vous avez bien lu : 150 FPS en 1600x1200 32 bits. Sans
commentaire. Un CPU plus puissant aurait permis d'augmenter encore ces
scores. Le petit Athlon XP 1800 ne sait plus où donner de la tête. Une
fois les fréquences identiques, GeForce 3 et 4 font jeu égal. Le Radeon
8500 est un rien en retrait en étant 20% moins performant que les
GeForce 3 et 4 Ti. La GeForce 4 Ti 4200 est presque au niveau de la
GeForce 3 Ti 500. 


Serious Sam 2 


Serious Sam 2 est beaucoup plus gourmand que Quake III, surtout au
niveau de l'utilisation CPU. La GeForce 4 Ti 4600 est devant, mais
l'écart est faible. Lorsque l'on compare les performances des
différentes architectures, un détail saute aux yeux : l'architecture
GeForce 3 est ici plus performante que celle du GeForce 4 Ti. Les
fréquences importantes du "petit" nouveau n'ont cependant aucun mal à
compenser ce détail. Notez que le GeForce 4 MX dépasse le Radeon 8500. 


Dronez 


Nous n'avons pas inclus les scores des Radeon 8500. Dronez est hyper
optimisé pour les cartes n'Vidia et ne supporte pas totalement la carte
d'ATI. Le GeForce 4 MX est complètement largué. Dans un jeu complexe
comme celui-ci, il est dépassé. Les GeForce 4 Ti montrent ce qu'ils ont
dans le ventre. Même la GeForce 4 Ti 4200 explose la GeForce 3 Ti 500 !
Le graphe des architecture est d'ailleurs très clair : il y a un monde
entre le GeForce 4 MX et le Ti. Ces tests ont bien entendu été réalisés
avec la qualité poussée au maximum et les Vertex et Pixel Shader activés
(sauf sur la MX). 


Dragothic 


Pour représenter les performances dans un jeu de type DirectX 7, nous
avons utilisé la scène Dragothic Low Detail de 3D Mark 2001 SE. Les
GeForce 4 Ti sont toujours devant grâce à leur puissance géométrique, le
GeForce 4 MX est à la traîne, les Radeon peinent en haute résolution et
les GeForce 3 s'en tirent correctement. Ceci est confirmé par le graphe
des architectures. Le core GeForce 4 Ti a bel et bien été amélioré, même
si dans Serious Sam 2 et dans Nature il est un rien en retrait. 


Aquanox 


Oublions une fois de plus le GeForce 4 MX qui est largué. A fréquence
égale, les trois architectures ont la même efficacité dans Aquanox.
Seule la fréquence importante des GeForce 4 Ti leur permet d'être
devant. Il y a une donnée que ces chiffres ne donnent pas : la fluidité
réelle (ils représentent la fluidité moyenne). Dans Aquanox, il n'y a
pas besoin d'avoir 100 FPS au compteur pour que le jeu paraisse fluide.
30 sont suffisants (heureusement). La carte qui offre le framerate le
plus stable est la Radeon 8500. Ainsi, bien que la GeForce 4 Ti soit
devant, moins de ralentissements sont perçus avec la carte d'ATI. 


Comanche 4 


Dans la dernière démo de Comanche 4, Novalogic a intégré un benchmark.
Celui-ci est très intéressant puisqu'il s'agit d'un des premiers jeu
"standard" (Dronez et Aquanox étant souvent assimilés à des
démonstrations technologiques) à utiliser les Shader. Le graphisme est
très réussi. Les effets graphiques sont utilisés à bon escient. En full
detail, le jeu est assez gourmand. Rassurez-vous, 30 FPS sont largement
suffisants pour y jouer, et puis il n'est pas obligatoire de pousser
tous les détails à fond. Lorsqu'il n'y a pas de gestion des Pixel et
Vertex Shader sur la carte, le moteur de Comanche 4 utilise le
multitexturing pour les simuler d'une manière correcte. Les cartes d'ATI
sont en retrait ici, se faisant même devancer par la GeForce 4 MX
dépourvue de Shader. En haute résolution, le GeForce 4 Ti se démarque
nettement du GeForce 3. Notez une fois de plus les excellents résultats
du GeForce 4 Ti 4200 qui risque d'être une excellente affaire à sa
sortie. 


CodeCreatures 


Ce benchmark est très récent et correspond au graphisme le plus poussé à
ce jour. Un FPS dans des décors pareils serait assez jouissif. Il faudra
cependant encore attendre au moins 1 pour ça… La présence de Pixel
Shader étant obligatoire, le bench n'a pas voulu se lancer avec la
GeForce 4 MX. Les Radeon 8500 ne s'en tirent pas très bien. Un manque
d'optimisation du moteur ? Peut-être… Ce serait d'autant plus logique
que CodeCreatures était utilisé pour présenter le GeForce 4 Ti. Celui-ci
est d'ailleurs loin, très loin même, devant les autres. 


VillageMark et Temple 


Temple met en avant les capacités en multitexturing des cartes
graphiques. Temple applique jusqu'à 6 textures. Les GeForce 4 Ti et les
Radeon mènent la danse, suivies des GeForce 3. Le GeForce 4 MX est 2
fois moins performant ; ce qui est logique étant donné qu'il lui faut 2
passes pour appliquer 4 textures. Aux mêmes fréquences, le GeForce 4 Ti
est 10% plus performant que le GeForce 3. Ceci semble mettre en avant
l'amélioration au loopback (4 textures par passe) apportée par n'Vidia. 

VillageMark, quant à lui, met plutôt en avant les performances du
système HSR de la carte (Hidden Surface Removal). Le gain apport par
l'Occlusion Culling II du GeForce 4 n'est pas très important, mais il
est là : 5%. Les Radeon s'en tirent assez bien dans ces tests. Notez
qu'ils sont très dépendants de la fréquence du GPU. 


AntiAliasing 


Nous avons utilisé la scène Dragothic Low Detail de 3D Mark 2001 SE. Le
titre "Activer l'antialiasing ou comment permettre au GeForce 4 Ti
d'écraser tout le monde" pourrait résumer la situation. Le contraire
pourrait se dire également par rapport aux cartes ATI qui sont loin
derrière. Les GeForce 4 sont moins sensibles à l'antialiasing Quincunx
que les GeForce 3. Il y a donc bien eu une optimisation. 

Si vous avez été attentif, vous devriez avoir remarqué une bizarrerie…
Comment avons-nous fait pour vous donner des résultats de GeForce 3 avec
le tout nouvel antialiasing spécifique à l'Accuview des GeForce 4 : l'AA
4XS. Nous l'avons simplement activé à l'aide de NVMax. Nous avons bien
entendu vérifié la qualité graphique et elle est parfaitement identique
(vous pourrez le constater par vous-même via les screenshots à la fin de
l'article). De là à dire que "l'Accuview apporte un tout nouveau
antialiasing au GeForce 4" c'est du pipeau, il n'y a qu'un pas... que
nous franchissons. Marketing quand tu nous tiens… 

Autre point étrange : la GeForce 4 MX a exactement les mêmes
performances en antialiasing 2X et Quincunx (également en 4X et 4XS).
Bizarrement, avant les Detonators 28.32, elles étaient plus élevées en
antialiasing 2X et 4X mais identiques en Quincunx et 4XS. 

Notez que les cartes ATI affichent souvent un effet d'antialiasing un
peu moins réussi, mais, en contrepartie affichent des textures bien plus
nettes. 


Anisotropic Filtering 


Nos derniers tests concernent le filtrage anisotrope qui permet
d'augmenter la netteté des textures appliquées sur des surfaces qui ne
sont pas parfaitement faces à l'angle de vision d'un jeu (seul un mur vu
perpendiculairement dispose de textures bien nettes en général). Ce
filtrage est très gourmand en ressources. Sur les cartes n'Vidia, nous
avons activé l'anisotropic filtering 8X (64 taps). Sur les cartes ATI,
nous avons activé la version 16X (128 taps). Pourquoi avoir utilisé des
modes différents ? Tout simplement parce que les Radeon 8500 adaptent
dynamiquement la qualité du filtrage pour chaque texture. La valeur
spécifiée correspond en fait au niveau d'anisotropic filtering maximum.
Les cartes ATI offrent une meilleure qualité sur les surfaces peu
inclinées (ex : le sol) alors que les cartes n'Vidia affichent des
textures plus détaillées sur les surfaces vues sous un angle de 45° (ex
: un toit). 

Au début de l'article, nous nous demandions comment mettre à genoux les
GeForce 4 Ti. Nous avons maintenant la réponse ! Ces cartes sont
particulièrement mal à l'aise avec l'anisotropic filtering, ce qui est
très étrange ! N'Vidia n'hésite d'ailleurs pas à spécifier que
l'Accuview permet de perdre moins de FPS avec ce filtrage… Il y a un
problème quelque part… Caches internes mal définis ? Problèmes de
drivers ? Nous avons essayé tous les drivers disponibles. Les
performances ne changent pas. Si le problème venait des drivers, n'Vidia
aurait déjà dû le corriger… 

Les Radeon 8500 et les GeForce 3 sont devant le GeForce 4 Ti. Même ses
hautes fréquences ne lui donnent pas l'avantage. Lorsque toutes les
cartes fonctionnent à la même fréquence, le GeForce 4 Ti est dernier !
En 1280x1024, il est 9% moins performant que le GeForce 4 MX (sic!), 28%
moins performant que le GeForce 3 et 31% moins performant que le Radeon
8500 !!! Une situation assez surréaliste… Le GeForce 4 MX devant le
GeForce 4 Ti… 


Anisotropic Filtering + AntiAliasing 


Avec l'antialiasing activé, le GeForce 4 Ti reprend légèrement du poil
de la bête. En fait, il a surtout la chance que le supersampling d'ATI
est très peu performant comparé à son multisampling… Ses hautes
fréquences lui permettent de rester au-dessus. Par contre, lorsque l'on
compare les architectures, le GeForce 3 passe devant. 


Qualité graphique 

Les images affichées par le GeForce 4 Ti sont très belles. Nettes et
vives. Il est parfois difficile de se rendre compte de la différence en
terme de qualité apportée par l'antialiasing et l'anisotropic filtering.
Voici 2 parties de screenshots pris en 1024. Le premier en mode normal,
le second avec filtrage anisotrope et antialiasing 4XS. 



La différence est claire, même si la compression l'atténue. Vous pouvez
comparez tous les modes via ces screenshots : 

GeForce 4 Ti <http://www.tt-hardware.com/img/vga01/gef4ti_1024.jpg>
1024 Normal 
GeForce <http://www.tt-hardware.com/img/vga01/gef4ti_1024_aniso.jpg>  4
Ti 1024 Anisotropic 
GeForce 4 <http://www.tt-hardware.com/img/vga01/gef4ti_1024_2x.jpg>  Ti
1024 AA 2X 
GeForce <http://www.tt-hardware.com/img/vga01/gef4ti_1024_2x_aniso.jpg>
4 Ti 1024 AA 2X Anisotropic 
GeForce 4 <http://www.tt-hardware.com/img/vga01/gef4ti_1024_3x.jpg>  Ti
1024 AA Quincunx 
GeForce <http://www.tt-hardware.com/img/vga01/gef4ti_1024_3x_aniso.jpg>
4 Ti 1024 AA Quincunx Anisotropic 
GeForce 4 <http://www.tt-hardware.com/img/vga01/gef4ti_1024_4x.jpg>  Ti
1024 AA 4X 
GeForce <http://www.tt-hardware.com/img/vga01/gef4ti_1024_4x_aniso.jpg>
4 Ti 1024 AA 4X Anisotropic 
GeForce 4 Ti <http://www.tt-hardware.com/img/vga01/gef4ti_1024_4xs.jpg>
1024 AA 4XS 
GeForce <http://www.tt-hardware.com/img/vga01/gef4ti_1024_4xs_aniso.jpg>
4 Ti 1024 AA 4XS Anisotropic 
GeForce 3 <http://www.tt-hardware.com/img/vga01/gef3_1024_4xs.jpg>  1024
AA 4XS 


Conclusion 

Comme vous avez pu le constater, nous avons torturé le GeForce 4 Ti sous
TOUS les angles. Tous les benchs réalisés n'ont d'ailleurs pas été
publiés. Le GeForce 4 Ti est costaud, très costaud. Il a cependant un
point faible de taille : l'anisotropic filtering. Ce mode avancé de
filtrage des textures est peu performant. Dans tous les autres benchs,
il n'y a pas photo : le GeForce 4 Ti est le roi ! Une fois
l'antialiasing activé, personne ne peut lutter. 

Le GeForce 4 Ti 4200 "émulé" donne un avant goût de ce futur
accélérateur 3D. Il proposera un rapport performances/prix
extraordinaire. En attendant, le GeForce 4 Ti 4600 reste un peu cher. La
version 4400 devrait par contre intéresser quelques joueurs avides de
FPS. 
Prix moyen GeForce 4 Ti 4600 : 530 € : 6,5/10 

Prix moyen GeForce 4 Ti 4400 : 390 € : 8/10 

Prix Asus V8460 Ultra : 600 € : 6/10 

Prix Asus V8440 : 440 € : 7,5/10
 
 
 
--->>>
Shaka( Rudy)
HelPC list owner
shaka.rudy@xxxxxxxxx
 
 

Other related posts:

  • » [helpc] GeForce 4 Ti au banc de torture !