Download Comparativa de tarjetas gráficas nVidia y ATI

Document related concepts
no text concepts found
Transcript
Comparativa:
vs
Últimos modelos
Javier Sánchez Bustamante
Índice de contenidos

Introducción
- Glosario
- Pipeline gráfico
- APIs para gráficos: DirectX y OpenGL

Nvidia Geforce
- Introducción a la gama 8800
- Características
Ati Radeon
- Introducción a la gama HD3800
- Características


Benchmarks
- 3DMark
- Reviews de páginas web

Conclusiones

Referencias
2

Introducción
El objetivo de este análisis es comparar los modelos de tarjetas gráficas de
última generación para PC de las 2 empresas líderes del segmento: NVidia y ATI - que
a su vez forma parte de AMD (debido a la compra de ATI por parte de esta última hará
más de un año).
Nos centraremos únicamente en las tarjetas para PCs de sobremesa, cuya
aplicación principal es acelerar el procesado de imágenes en 3D, generalmente para
usuarios de videojuegos, y que además incorporan otras funciones, casi todas ellas
orientadas al ocio.
Hay que destacar que Nvidia planea sacar al mercado una nueva tarjeta gráfica,
la serie GeForce 9800, a partir de febrero de este mismo año. Por la información que he
podido obtener al respecto, será una ampliación de la arquitectura actual con mejores
prestaciones. Para más detalles, ver nota al pie.1
Antes de analizar las tarjetas en detalle, conviene realizar una introducción que
nos aproxime al mundo de las unidades de proceso gráfico (GPU). Será importante
resaltar que el proceso de generación de imágenes en 3D 2 (renderizado) ha sufrido un
cambio importante con el desarrollo de DirectX10 y OpenGL 2.0, y las 2 arquitecturas
que vamos a comparar son capaces de soportar estos API (Interfaz de Aplicación de
Programa).
Glosario:
-Renderización: proceso para crear una imagen desde un modelo. En gráficos
3D, el modelo se compone inicialmente de entidades geométricas tridimensionales que
serán procesadas hasta llegar a la imagen final.
-Vertex: en inglés, vértice. Se refiere a los vértices de los polígonos (triángulos)
que se utilizan para componer las imágenes 3D.
-Rasterización: proceso por el cual una imagen descrita en un formato gráfico
vectorial se convierte en un conjunto de píxeles o puntos
-Píxel: (Picture Element) los conocidos puntos que conforman una imagen.
-Téxel: (Texture Element) las unidades fundamentales de un espacio de texturas.
-Mapeado de texturas: proceso por el cual se asignan los texels a cada píxel de
la imagen final
-Shader: conjunto de instrucciones capaces de ser ejecutadas por un procesador
gráfico. En ocasiones también se conoce por shader a unidades de procesamiento
dedicadas a algunas de las diferentes operaciones (o pipelines, ambos nombres bastante
incorrectos)


1
2
Vertex Shaders: Actúan sobre las coordenadas, color, textura, etc. de un vértice.
Geometry Shaders: Es capaz de generar nuevas primitivas (entidades
geométricas) dinámicamente.
http://www.tomshardware.com/2008/01/05/exclusive_nvidia_geforce_9800gx2/
http://es.wikipedia.org/wiki/Gr%C3%A1ficos_3D_por_computadora
3

Pixel Shaders: Actúan sobre el color de cada pixel (texel para ser mas preciso).
(en openGL: fragment shader)
-ROP: Raster Operation Pipeline o Raster Output Unit. Unidad que realiza las
últimas operaciones del pipeline gráfico, tales como la mezcla, el Z-Buffer, el filtrado
antialiasing…
-Z-Buffer: proceso para calcular las coordenadas de profundidad de los píxels.
-Filtrado Anisotrópico: el filtrado anisotrópico es un método utilizado para
filtrar píxeles en la asignación de texturas de modo que se produzca una imagen más
suave. Al habilitar esta función se consigue una imagen mucho más suave en el
horizonte al ver la Tierra con un ángulo inclinado. También se requiere más memoria de
la tarjeta gráfica,
4
Pipeline gráfico
El proceso para generar una imagen en 3D consiste una serie de operaciones que
constituyen un pipeline3, esto es, se realizan en serie hasta llegar a la etapa de display en
la que se vuelcan los datos finales por la salida de video. El esquema clásico de pipeline
gráfico es de la forma:
Tradicionalmente, los procesadores gráficos disponían de unidades capaces de
realizar las operaciones correspondientes a las etapas del pipeline por separado (vertex
pipeline units, píxel pipeline units, ROPs), de forma paralela pero muy especializada.
3
http://en.wikipedia.org/wiki/Graphics_pipeline#Stages_of_the_graphics_pipeline.5B2.5D
El pipeline gráfico – Cesar Mendoza
5
No obstante, en el empeño por conseguir mayores rendimientos, las
desarrolladoras de GPUs advirtieron que este sistema era bastante poco eficiente, ya que
con frecuencia se producían cuellos de botella (bottleneck) en la ejecución.
Variación de carga de trabajo de píxel y vertex en el tiempo
Esta gráfica ilustra la situación: generalmente el trabajo en unidades de píxel es
mayor. Sin embargo, una representación gráfica puede necesitar en un determinado
momento un cómputo exhaustivo de características de polígonos, lo que provocaría el
mencionado cuello de botella. Además, tal como se aprecia a continuación, tenemos
hardware no operativo durante algún intervalo de tiempo.
6
A partir de estas deducciones, un nuevo concepto surgió en el mundillo de las
tarjetas gráficas: el stream processing. Se trata de un tipo de procesamiento paralelo: la
GPU puede procesar miles de hilos ultraligeros simultáneamente, lo cual es de gran
utilidad teniendo en cuenta que la información de una imagen, ya venga dada en
polígonos o en píxeles, representa una enorme cantidad de arrays de datos que en
muchos casos son independientes (es una evolución de Single Instruction Multiple Data,
SIMD). La gran ventaja con respecto al método anterior es que ahora se dispone de unas
nuevas unidades, los stream processors, procesadores en punto flotante de propósito
más general, que permiten realizar operaciones de píxel, geométricas o de vertex, e
incluso admiten otras funcionalidades que los nuevos API pueden darle en el futuro.
7
APIs para gráficos: DirectX y OpenGL
Al hilo de lo anterior, conviene hablar un poco de los API para desarrollo de
juegos. Son 2, DirectX y OpenGL.
DirectX es una colección de APIs creadas para facilitar tareas relacionadas con
la programación de juegos en la plataforma Microsoft Windows. El kit de desarrollo de
DirectX es distribuido gratuitamente por Microsoft. Las bibliotecas de DirectX eran
originalmente distribuidas por los desarrolladores de juegos con sus paquetes, pero más
tarde fueron incluidas en Windows. Su última versión es la 10.1. Dentro de DirectX se
encuentra el API para generación de gráficos 3D Direct3D.
En la imagen superior se
puede observar el modelo de
abstracción de D3D.
En la imagen de la
izquierda se puede ver el
esquema de pipeline gráfico que
sigue la última versión de D3D
(de forma simplificada)
A continuación se muestra
una breve explicación de cada
una de las etapas.
1. Input Assembler: aporta los datos de entrada (líneas, puntos y triángulos).
2. Vertex Shader: se encarga de las operaciones de vértices (iluminación, texturas,
transformaciones). Trata los vértices individualmente.
3. Geometry Shader: realiza operaciones con entidades primitivas (líneas,
triángulos o vértices). A partir de una primitiva, el geometry shader puede
descartarla, o devolver una o más primitivas nuevas.
4. Stream Output: almacena la salida de la etapa anterior en memoria. Resulta útil
para realimentar la pipeline con datos ya calculados.
8
5. Rasterizer: convierte la imagen 3D en píxeles.
6. Pixel Shader: operaciones con los píxeles.
7. Output Merger: se encarga de combinar la salida del pixel shader con otros
tipos de datos, como los patrones de profundidad, para construir el resultado
final.
DX10 incorpora el nuevo repertorio de Shaders, Shader Model 4.0 (SM4). Esta
comparativa ofrece una idea del aumento en la cantidad de instrucciones soportadas y
otras mejoras del nuevo SM. Esto se traduce en una mayor repertorio para el
programador y por tanto una mejor calidad en las imágenes finales, más realismo, etc.
Para más información, véase nota al pie4
OpenGL es una especificación estándar que define una API multilenguaje y
multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. Fue
desarrollada por Silicon Graphics Inc. (SGI) en 1992 . Su nombre viene del inglés
Open Graphics Library, cuya traducción es biblioteca de gráficos abierta (o mejor,
libre). Se usa en CAD, realidad virtual, visualización científica, simulaciones de
vuelos… en general en ámbitos profesionales. También es empleado en videojuegos,
donde compite con D3D. La última versión de OpenGL es la 2.1
4
http://en.wikipedia.org/wiki/Direct3D#Direct3D_10
9
El esquema del pipeline que sigue es prácticamente el mismo que en D3D. Aquí
que tener en cuenta que en OpenGL el píxel Shader es llamado Fragment Shader.
Lo más importante de las últimas versiones de DX y OpenGL es que permiten
un repertorio de instrucciones unificado gracias al control de flujo dinámico, que puede
ejecutarse sobre una máquina de arquitectura unificada, es decir, que permite
aprovechar correctamente el método de stream processing incorporado por las tarjetas
que se van a analizar.
10

Nvidia Geforce 8800 Series
Dentro de la gama de tarjetas de NVIDIA, las de más alto nivel en el mercado
actual (a finales de 2007, principio de 2008) son las GeForce de la serie 8800. Fueron
lanzadas hace casi un año, y su tiempo de vida en el mercado se ha alargado un poco
debido a la puesta en venta del último modelo: la GeForce 8800 GTS 512. Es en este
modelo en el que nos centraremos en detalle cuando saquemos las conclusiones finales.
En la imagen inferior se puede observar una tabla con una lista de los modelos en venta
de NVIDIA y algunas de sus características (aparecen también modelos de las series
anteriores, para poder comparar un poco sus características).
Los modelos de la serie 8800 montan los micros G80 y G92, de Nvidia, siendo
el G92 una actualización del G80. Estos micros se fabrican en tecnología de 90 nm y 65
nm – respectivamente - por TSMC, Taiwan Semiconductor Manufacturing Company
Ltd. Como se puede observar en la tabla de la página siguiente, el throughput de estas
máquinas es de más de 300 GFlops, que a pesar de ser enorme, queda muy lejos de lo
anunciado por Nvidia en su día5. A pesar de todo, esta tecnología sigue vigente y es
posible que la nueva tarjeta por venir se acerque más a las prestaciones esperadas.
5
http://www.beyond3d.com/content/news/230
11
En la tabla siguiente se pueden ver las características de los modelos de la serie
8800, incluyendo datos sobre la tecnología utilizada.
Los modelos de última generación de NVIDIA se conectan a la placa mediante
el bus PCI Express, que tiene un ancho de banda de hasta 5 Gbits/s en cada dirección
por cada pin, o lo que es lo mismo 16 GBytes/s en un conector de 32 pines. Esta tasa de
transferencia es altísima, aunque es posible que en algunos casos esté infrautilizada6.
Todas las tarjetas de la serie 8800 trabajan con memoria GDDR3 (una versión
especial de la memoria DDR2 para tarjetas gráficas, que reduce considerablemente
costes de consumo y de disipación permitiendo aumentar la eficiencia de manera
notable). Podemos ver que el modelo GTX ofrece un ancho de banda de memoria (384
bits de anchura del bus de memoria) y una cantidad de la misma muy superiores al
resto. Sin embargo, este modelo, perteneciente a la primera generación de 8800, salió al
mercado con un precio exorbitado y no tuvo demasiado éxito. La más reciente 8800
GTS 512, a pesar de tener un ancho de banda de memoria inferior, ha sido fabricada con
tecnología de 65 nm y trabaja a velocidades mayores, por lo que, como luego
comprobaremos, tiene un rendimiento prácticamente igual pero con un coste mucho
menor.
Workload Characterization of 3D games – Jordi Roca, Victor Moya, Carlos González, Chema Solís,
Agustín Fernandez y Roger Espasa (UPC)
6
12
Características
Entre las bondades que el fabricante nos presenta, podemos destacar las
siguientes:
-
Arquitectura unificada CUDA
Tecnología GigaThread™
Soporte DirectX 10 y OpenGL 2.0
Motor NVIDIA® Lumenex™:
Tecnología NVIDIA® Quantum Effects™
Tecnología NVIDIA® SLI™
Tecnología NVIDIA® PureVideo™ HD y otras mejoras en la reproducción de
video
A continuación una descripción más minuciosa por separado.
- Arquitectura Unificada CUDA (Compute Unified Device Architecture)
Al unificar los shaders y poder asignar dinámicamente los recursos de
procesamiento, se logra un mayor rendimiento en muchas aplicaciones. Esto se logra
gracias a los mencionados stream processors, cuya funcionalidad es muy amplia. El
esquema de la arquitectura de los G80 y G92 es:
13
Se observan 8 clusters de 16 SP –haciendo un total de 128 SP- que actúan como
unidades SIMD. Su arquitectura es la siguiente:
(16 KB por cluster de 16 SP)
Los stream processors trabajan a una velocidad diferente del resto de la GPU, y
Los stream processors trabajan a un frecuencia distinta del resto de la GPU, y
esta suele ser bastante mayor, para poder aprovechar el multiprocesamiento de datos
de la mejor manera. En las tablas mostradas en los apartados previos, se aprecia la
frecuencia de los SP (shaders clock) es más del doble que la del core de la GPU, y
también es superior a la velocidad de la memoria, llegando a los 1625 MHz en el
modelo GTS 512.
-
Tecnología GigaThread™
Al soportar la arquitectura unificada pero a la vez disponer de gran cantidad de
unidades de proceso independientes, no solo se pueden implementar módulos SIMD, sin
también multithreading. Según los fabricantes, la máquina es capaz de ejecutar miles de
hilos en paralelos e independientes, con lo que podemos conseguir velocidades de
procesamiento muy altas.
-
Soporte DirectX 10 y OpenGL 2.0
No hay mucho que añadir al respecto: las tarjetas de las serie 8000 soportan
estos 2 APIs. Hay que tener en cuenta que debido a la arquitectura empleada, podemos
decir que estas GPU son un soporte nativo para ejecutar los APIs de última generación.
-
Tecnología NVIDIA® SLI™:
Permite combinar la capacidad de dos tarjetas gráficas en un mismo sistema.
Según el fabricante, esto permite duplicar el rendimiento. Según benchamarks
14
consultados, esto no es así, pues las aplicaciones no se diseñan para aprovechar
eficientemente semejante potencia de procesamiento.
-
Motor NVIDIA® Lumenex™:
Este concepto consiste en un nuevo motor con el que NVIDIA calcula sus
filtros, y que supone una mejora de calidad enorme con respecto a lo que hacían G70G71.
Hasta antes de G80, la palma en cuanto a calidad de imagen se la llevaba ATI,
ya que podía realizar HDR de 128-bits de profundidad (High Dynamic Range: los píxels
se codifican en 128 bits, 32 para cada uno de los 3 colores y otros 32 para luminancia,
lo que permite una iluminación mucho más realista) y antialiasing simultáneamente,
además de tener un filtro anisotrópico7 de mucha más precisión que el de NVIDIA. A
partir de G80 esto cambia, ya que ahora podemos aplicar filtrado antialiasing y HDR
(de 128-bit, denominado como TRUE HDR por NVIDIA) de forma conjunta, así como
también filtrado anisotrópico de alta calidad.
Además de esto, las tarjetas de Nvidia disponen de una nueva modalidad de
antialiasing de alta calidad denominado CSAA (Coverage Sample AntiAliasing), el cual
promete una calidad muchísimo mayor a 16x con el rendimiento de un MSAA (Multi
Samplig AA, algoritmo empleado generalmente para realizar el filtrado).
-
Tecnología NVIDIA® Quantum Effects™:
Los stream processors, al ser procesadores de punto flotante de propósito
general, pueden ejecutar también los cálculos de operaciones físicas de los elementos a
representar, descargando a la CPU del trabajo. Esto depende de la aplicación, y sólo es
soportado por los APIs más nuevos.
-
Tecnología de visualización multipantalla NVIDIA® nView™:
Tecnología que permite la visualización y control en varios monitores. Esta lleva
siendo implementada por NVIDIA desde hace mucho tiempo.
7
15
-
Tecnología NVIDIA® PureVideo™ HD:
Funciones de descodificación acelerada y postprocesamiento de vídeo y
películas de alta definición que proporcionan una excepcional calidad de imagen,
fluidez de reproducción, color de alta precisión e imágenes en una amplia gama de
resoluciones. Esta función precisa software de vídeo compatible
En la tabla adjunta se pueden
apreciar las funciones implementadas
por esta tecnología, entre las que
destacan la decodificación HW de
H.264, VC-1, MPEG-2 y WMV, tanto
en resolución estándar como en HD. El
postprocesamiento de video elimina
artefactos y otros problemas en la
imagen, como los introducidos en la
edición y conversión de video, de forma
que esta alcanza mayor nitidez.
Aparte de todo esto, las tarjetas ofrecen 2 salidas conexiones DVI Single y Dual
Link , soportando estas últimas resoluciones de hasta 2560x1600 (WQXGA) y un
cdodificador de HDTV integrado que proporciona salida a TV analógica (vídeo por
componentes/compuesto/S-Video) con resoluciones de hasta 1080i
16
ATI Radeon HD3800 Series
La serie HD3800 es la respuesta de ATI a los modelos de NVIDIA de la serie
88008, y fue lanzada a mitad del año pasado, cuando AMD se dio cuenta de que estaba
perdiendo el sector de los ‘gamers’. La gama de la serie 3800 sólo cuenta con 2
modelos, pero para realizar el análisis vamos a incluir en las tablas la ATI HD2900 XT,
un modelo anticuado pero que ofrece un rendimiento muy alto a base de fuerza bruta.
Las características generales de la nueva serie de ATI son:
La GPU incorporada por ATI es la RV670, ampliación y mejora de la
arquitectura anterior, R600. Comparte muchas características en común con NVIDIA,
por lo que la descripción será más somera.
NOTA: la frecuencia de memoria es efectiva, no nominal. La real sería la mitad de la
que se muestra
8
http://www.theinquirer.es/2007/11/15/ati_radeon_hd_3850_y_3870_vuelve_la_rivalidad.html
17
Podemos ver que también se emplea el modelo de stream processing, y además
se puede apreciar que la versión de ATI cuenta con 320 SP, una cantidad muy superior a
la vista en los chips de NVIDIA. Sin embargo, estos SP trabajan a la misma velocidad
de reloj que el núcleo de la GPU, por lo que el mayor número no resulta tan beneficioso
como podría creerse. A pesar de ello, y tal como se observa a continuación, el modelo
de ATI es capaz de ofrecer un throughput muy alto. Notar que HD3870 es el único
modelo de los comparados a lo largo de este documento con memoria GDD4 ( que
ofrece un menor consumo que GDD3, con mejores prestaciones)
RV670 también es producido por TSMC. La tecnología de fabricación es de 55
nm, consiguiéndose un chip de reducido tamaño.
Características
De nuevo seleccionamos una serie
-
Tecnología de Shaders superescalar unificado
Soporte DirectX 10.1 (SM 4.1) y OpenGL 2.0
Tecnología PowerPlay
Tecnología CrossfireX™
Tecnología AVIVO™ HD
18
Tecnología de Shaders superescalar unificado
La arquitectura de las Radeon 3800 es también del estilo stream processing,
aunque en este caso los SP trabajan a velocidades de reloj diferentes. La estructura
del chip RV670 se puede ver a continuación:
19
Podemos ver que los SP están estructurados en 4 grupos de 16 shader
processors. Cada uno de estos grupos corresponde a una unidad SIMD (Shared
Instruction Multiple Data), y a su vez cada shader processor es una unidad
independiente compuesta de 5 SP, tal y como se aprecia a continuación:
4 de estos SP están especializados en
operaciones de tipo MAD, MUL, ADD… en
punto flotante o en punto fijo. El otro SP
permite realizar operaciones mucho más
especializadas, tales como SIN, COS… Esto
permite dar un uso más genérico a las
unidades del chip. Todos los SP operan con
precisión de 32 bits, lo que permite obtener
calidad HDR (High Dynamic Range), al
igual que ocurría con NVIDIA 8800.
Las unidades de texturas tienen un esquema semejante al siguiente:
La cache de L2 texture
cache llega hasta los 256kB.
Sirve de nivel superior tanto a
la L1 texture cache (32 kB)
como a la Vertex cache (L1,
4kB). La cache de lectura
/escritura de memoria es de 8
kB.
20
Por último, los render back-ends, correspondientes a los ROPs en la
nomenclatura habitual, se componen a su ver de varias unidades internas para las
operaciones de filtrado, blending, Z-buffering…
En conclusión, se trata de una arquitectura muy amplia y con un grupo inmenso
de unidades funcionales, que permite eficiencia en el cálculo del complicado proceso de
rendering 3D.
Soporte DirectX 10.1 (SM 4.1) y OpenGL 2.0
La novedad de ATI frente a su rival es que sus modelos de GPU están
preparados para la actualización de DirectX 10, conocida como 10.1. Las novedades
que esta aporta con respecto a la anterior versión pueden ser consultadas si se desea en
el archivo DirectX10.1 WhitePaperv1.0Final que se puede encontrar en la página de
ATI, http://ati.amd.com
Tecnología PowerPlay
Debido al altísimo consumo de energía de los modelos de la generación anterior,
ATI ha optado por integrar la tecnología PowerPlay (anteriormente empleada en tarjetas
para portátiles) en sus tarjetas de alta gama. Consiste en una serie de técnicas para
reducir el consumo dependiendo del tipo de carga a la que se esté sometiendo a la GPU,
tales como reducción del voltaje o frecuencia de operación del chip.
En la gráfica que se puede ver en la siguiente página se observan 3 tipos de uso
de la máquina y la considerable mejora obtenida al aplicar las técnicas PowerPlay en los
modelos de la serie 3800.
21
Tecnología CrossfireX™
Es el equivalente a la tecnología SLI de NVIDIA: permite conectar varias
tarjetas para operar en paralelo. De nuevo el fabricante nos asegura que conectando 2
HD3870 en paralelo se puede alcanzar un throughput de casi 1 TFLOPS, pero por lo
visto en algunas reviews, los drivers no logran un resultado óptimo, por lo que esta
cualidad es desaprovechada. A pesar de todo, debido al inferior precio de las tarjetas de
ATI, tal vez no sea un opción a desechar inicialmente, sobre todo porque CrossfireX
admite hasta una conexión cuádruple.
Tecnología AVIVO™ HD
Es el equivalente a la tecnología PureVideo de NVIDIA. Incorpora los
decodificadores HW de H.264, WMV, VC-1 y MPEG-2, decodificación que es
ejecutada por un elemento conocido por UVD (Unified Video Decoder). También
incorpora operaciones de postprocesamiento de video, al igual que PureVideo, tales
como desentrelazado espaciotemporal, telecine inverso, correción de color…
22
Ejemplo
de
decodificación de H.264
con y sin UVD: se
aprecia que la CPU
queda descargada casi
totalmente del trabajo.
23
Benchmarks
A diferencia de otros procesadores de propósito general en los cuales podemos
emplear los SPEC, o los dhrystone o whetstone como referencia, en el caso de las GPU
estos benchmarks no son igualmente útiles debido a la especialización del procesador.
Es por esto que se buscan alternativas, tales como pueden ser las medidas de frames por
segundo en los juegos más nuevos del mercado, o benchmarks que emplean una alta
carga gráfica y hacen uso de las instrucciones de las últimas versiones de los API.
Uno de ellos es 3DMark. Se trata de un programa que el usuario puede
descargar, bien de forma gratuita o bien en su edición profesional de pago, y que
permite medir el rendimiento del sistema en general cuando renderiza cargas gráficas
importantes. La última versión es 3DMark06, y puede ser descargada en
http://www.futuremark.com. Los resultados de ejecutar el benchmark suelen ser
recogidos por webs que se dedican a dar puntuaciones medias de los procesadores
probados.
En las imágenes siguientes 9 se pueden ver las puntuaciones obtenidas para una
gran variedad de modelos de NVIDIA y ATI. Es notable que la tarjeta con mejor
rendimiento es la 8800 GTS 512, a pesar de tener un precio muy inferior a los modelos
Ultra y GTX. Esto se debe a que estas 2 tarjetas son de la generación anterior, y su
tiempo de vida en el mercado está prácticamente acabado. Su alto precio supuso un
serio problema para muchos usuarios, y NVIDIA se vio obligada a buscar soluciones,
tales como el modelo GT y GTS 512, mucho más competitivos.
9
Obtenidas de http://www.yougamers.com/
24
Otras estadísticas que pueden funcionar muy bien a modo de benchmarks
pueden ser los resultados en frames por segundo al ejecutar juegos. Muchas páginas
web se dedican a hacer análisis del hardware, y realizan sus propios tests que luego
emplean para ilustrar sus conclusiones. A continuación se muestran como ejemplo los
resultados obtenidos en el análisis de la web www.tomshardware.com.
Un dato importante antes de fijarse en los resultados de fps es la máquina de
prueba empleada. La tarjeta gráfica es una parte fundamental del proceso de generación
de gráficos, pero debe estar soportada por un equipo de calidad si se quiere tener un
buen rendimiento.
A continuación, los resultados. Nótese que sólo se muestran para resoluciones de
1280x1024, pero se pueden encontrar en un alto rango de resoluciones. Conviene
recordar que para ejecutar una aplicación gráfica correctamente, se requieren al menos
25 fps, pero como los resultados se muestran en promedio, siempre es conveniente estar
bastante por encima de ese valor, para evitar los saltos ocasionados por un escenario
especialmente cargado.
25
Unreal Tournament ofrece unos resultados10 muy altos, aunque esto es debido a
la excelencia del motor gráfico del programa.
10
Nota: AA4x significa filtro antialiasing x4, y Aniso significa filtrado anisotrópico
26
Los resultados en Crysis11 son menores, pero esto es debido a que este juego
emplea una carga gráfica realmente abrumadora. Se puede considerar en cierta forma
que los resultados obtenidos con este juego constituyen un benchmark casi definitivo
para los dispositivos actuales.
Como conclusión, un
promedio de todos los juegos
probados (en la página web
hay más). La ganadora en
estos rankings es la 8800
GTX, pero hay q recordar
que su precio es casi el doble
que la GTS 512, que ofrece
un resultado muy similar. Las
tarjetas de ATi quedan
bastante por detrás, siendo
especialmente notorio que el
modelo de mejor rendimiento
sea el más antiguo de los
expuestos, HD2900 XT.
11
http://www.es.ea.com/games/8524/
27
Al final del análisis se muestra también un promedio de consumos de cada una de las
tarjetas.
Puede apreciarse que el consumo de la Radeon HD 2900 XT es excesivamente
alto. Es debido a esto que ATI decidido implementar la tecnología PowerPlay a sus
tarjetas más nuevas, logrando unos resultados bastante por debajo de sus rivales (en
especial cuando se encuentra idle).
Del mismo reportaje pueden extraerse también otros datos, tales como las
temperaturas medias y de pico alcanzadas por las tarjetas. 8800 GTS 512 se mantiene en
unos 55º C de media y 82 de pico, mientras que Radeon HD3870 alcanza los 93ºC, y su
temperatura media es de 70ºC. A pesar de que estos valores puedan parecer
preocupantes, las tarjetas gráficas soportan temperaturas mayores que los CPU
tradicionales.
28

Conclusiones
Finalmente, después de comparar ambas arquitecturas, rendimientos y precios,
se puede decir que NVIDIA ha dado un golpe de mano con la salida de su modelo 8800
GTS 512 MB, que supera ampliamente el rendimiento de las tarjetas de ATI por un
precio no excesivamente superior. Sin embargo, tal y como he leído en algunos reviews
de otras páginas web, dada la avanzada arquitectura de ATI Radeon HD 3870, es
posible que la culpa del peor rendimiento sea provocada por la inmadurez de los drivers
(Catalyst). En cualquier caso, a día de hoy, para el usuario de este tipo de tarjetas (que
buscan el mayor rendimiento gráfico sin preocuparse demasiado del consumo o de otras
características adicionales), la oferta de NVIDIA parece la mejor opción.
Referencias










http://www.hothardware.com/
http://www.tomshardware.com/
http://en.wikipedia.org
http://www.nvidia.es
http://www.toxico-pc.com/review_det.php?p=1&idr=394
http://iax-tech.com
http://www.bit-tech.net/hardware/2007/11/30/rv670_amd_ati_radeon_hd_3870/
http://ati.amd.com/developer/techpapers.html
http://techreport.com/articles.x/11211/6
http://foro.noticias3d.com/vbulletin/showthread.php?t=187792
29