Download Tipos antiguos de tarjetas gráficas[editar]

Document related concepts
no text concepts found
Transcript
Empezaremos por definir el Hardware: corresponde a todas las partes tangibles de una
computadora: sus componentes eléctricos, electrónicos, electromecánicos y
mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento
físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El
término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al
español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y
suena; la Real Academia Español lo define como «Conjunto de los componentes que
integran la parte material de una computadora». El término, aunque es lo más común, no
solamente se aplica a una computadora tal como se la conoce, ya que, por ejemplo, un
robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia también
poseen hardware (y software).
Después de haber definido que es Hardware, empezaremos con la teoría de lo que es
Hardware Gráfico:
El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes disponen
de su propia memoria y unidad de procesamiento, esta última llamada unidad de procesamiento
gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es
realizar
los
cálculos
asociados
a
operaciones
gráficas,
fundamentalmente
en coma
flotante, liberando así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que
éste pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de vídeo con
aceleradores por hardware, era el procesador principal el encargado de construir la imagen
mientras la sección de vídeo (sea tarjeta o de la placa base) era simplemente un traductor de las
señales binarias a las señales requeridas por el monitor; y buena parte de la memoria
principal (RAM) de la computadora también era utilizada para estos fines.
Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes
mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales
generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria dedicada,
utilizando para su función la memoria principal del sistema. La tendencia en los últimos años es
integrar los sistemas gráficos dentro del propio procesador central. Los procesadores gráficos
integrados (IGP) generalmente son de un rendimiento y consumo notablemente más bajo que las
GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir las
necesidades de la mayoría de los usuarios de un PC.
Tarjeta gráfica
Tarjeta Gráfica PCI-Express
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de
gráficos oadaptador de pantalla, es una tarjeta de expansión para
una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y
transformarlos en información comprensible y representable en un dispositivo de salida, como
un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las
computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero
otras arquitecturas también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y
separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido
funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG21 y MPEG-4 o incluso conectoresFirewire, de ratón, lápiz óptico o joystick.
Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas
dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro
III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en
las videoconsolas modernas, como la Wii U, la PlayStation 4 y la Xbox One.
Índice
[ocultar]

1 Historia

2 Componentes
o
2.1 GPU
o
2.2 Memoria gráfica de acceso aleatorio
o
2.3 RAMDAC

2.3.1 Espacio que ocupan las texturas almacenadas

o
2.4 Salidas
o
2.5 Interfaces con la placa base
o
2.6 Dispositivos refrigerantes
o
2.7 Alimentación
3 Tipos antiguos de tarjetas gráficas
o
3.1 Tarjeta MDA
o
3.2 Tarjeta CGA
o
3.3 Tarjeta HGC

4 Diseñadores, Fabricantes y ensambladores

5 API para gráficos

6 Efectos gráficos

7 Errores comunes

8 Véase también

9 Referencias

10 Enlaces externos
Historia[editar]
PCI S3 ViRGE
IBM XGA-2 MCA
Apple Display Card 24AC NuBus
Cirrus Logic VESA
AVIEW2E EISA
EGA Paradise Bus ISA
La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de
usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas
sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips
gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de
televisión fueron las primeras en recibir el término tarjeta de video.
El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento
de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa
base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80
columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para
ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).
Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia
de los Apple IIpopularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo
texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en
modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con
una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se
usaba con monitores monocromo, de tonalidad normalmente verde.2
A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla
adjunta.3 4 5 6
Año
Modo texto
Modo gráficos
Colores
Memoria
MDA
1981
80*25
-
1
4 KiB
CGA
1981
80*25
640*200
4
16 KiB
HGC
1982
80*25
720*348
1
64 KiB
EGA
1984
80*25
640*350
16
256 KiB
IBM 8514
1987
80*25
1024*768
256
-
MCGA
1987
80*25
320*200
256
-
VGA
1987
720*400
640*480
256
256 KiB
SVGA
1989
80*25
1024*768
256
1 MiB
XGA
1990
80*25
1024*768
65K
2 MiB
VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3
Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así
nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de
memoria VRAM, así como resoluciones de 1024 x 768 pixels a 256 colores.
La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio
esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU (que batía en
potencia con total tranquilidad a las tarjetas gráficas de los PC del momento) en sus placas
base. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC
al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que
representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3
ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional
en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata
sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los
chips gráficos VGA comiencen a salir del mercado del PC.
La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las
primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas
cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip
gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip
Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de
lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La
potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se
quedó corto de ancho de banda. Intel desarrolló el puerto AGP (Accelerated Graphics Port)
que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la
tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas
(comprando incluso la mayoría de bienes de 3dfx)7 con su gama GeForce. En ese período, las
mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores
gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se
incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo
en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos
derivados de los más potentes aceleradores 3D de su momento. Los Apple
Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC
con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.
En 2006 y en adelante, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el
liderazgo del mercado8 con sus series de chips gráficos GeForce yRadeon, respectivamente.
Componentes[editar]
Una unidad de procesamiento gráfico.
GPU[editar]
La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento
gráfico»— es un procesador (como laCPU) dedicado al procesamiento de gráficos; su razón
de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el
cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información
ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU,
pues constituye la parte más importante de la tarjeta gráfica, así como la principal
determinante del rendimiento. Tres de las más importantes de dichas características son
la frecuencia de reloj del núcleo, que en la actualidad oscila entre 825 MHz en las tarjetas de
gama baja y 1200 MHz, e incluso más, en las de gama alta, el número de procesadores
shaders y el número de pipelines (vertex y fragment shaders), encargadas de traducir una
imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.
Elementos generales de una GPU:

Shaders: Es elemento más notable de potencia de una GPU, estos shaders unificados
reciben el nombre de núcleos CUDA en el caso de nvidia y Procesadores Stream en el
caso de AMD. Son una evolución natural de los antiguos pixel shader (encargados de la
rasterización de texturas) y vertex shader (encargados de la geometría de los objetos), los
cuales anteriormente actuaban de forma independiente. Los shaders unificados son
capaces de actuar tanto de vertex shader como de pixel shader según la demanda,
aparecieron en el 2007 con los chips G90 de nvidia (Series 8000) y los chips R600 para
AMD (Series HD 2000), antigua ATi, incrementando la potencia drásticamente respecto a
sus familias anteriores

ROP: Se encargan de representar los datos procesados por la GPU en la pantalla,
además también es el encargado de los filtros como Antialiasing.
Memoria gráfica de acceso aleatorio[editar]
Son chips de memoria que almacenan y transportan información entre sí, no son
determinantes en el rendimiento máximo de la tarjeta gráfica, pero bien unas especificaciones
reducidas pueden limitar la potencia de la GPU. Existen de dos tipos, Dedicada cuando, la
tarjeta gráfica o la GPU dispone exclusivamente para sí esas memorias, ésta manera es la
más eficiente y la que mejores resultados da; y compartida cuando se utiliza memoria en
detrimento de la memoria RAM, ésta memoria es mucho más lenta que la dedicada y por tanto
su rendimiento es menor, es recurrente en campañas de márketing con mensajes tipo Tarjeta
gráfica de "Hasta ~ MB" para engañar al consumidor haciéndole creer que la potencia de esa
tarjeta gráfica reside en su cantidad de memoria.

Las características de memoria gráfica de una tarjeta gráfica se expresan en 3
características:

Capacidad: La capacidad de la memoria determina el número máximo de datos y
texturas procesadas, una capacidad insuficiente se traduce en un retardo a espera
de que se vacíen esos datos. Sin embargo es un valor muy sobrevalorado como
estrategia recurrente de márketing para engañar al consumidor, tratando de hacer
creer que el rendimiento de una tarjeta gráfica se mide por la capacidad de su
memoria.

Interfaz de Memoria: También denominado Bus de datos, es la multiplicación
resultante del de ancho de bits de cada chip por su número de unidades. Es una
característica importante y determinante, junto a la velocidad de la memoria, a la
cantidad de datos que puede transferir en un tiempo determinado, denominado
ancho de banda. Una analogía al ancho de banda se podría asociar al ancho de
una autopista o carriles y al número de vehículos que podrían circular a la vez. La
interfaz de memoria se mide en bits.

Velocidad de Memoria: Es la velocidad a la que las memorias pueden transportar
los datos procesados, por lo que es complemento a la interfaz de memoria para
determinar el ancho de banda total de datos en un tiempo determinado.
Continuando la analogía de la circulación de los vehículos de la autopista, la
velocidad de memoria se traduciría en la velocidad máxima de circulación de los
vehículos, dando resultado a un mayor transporte de mercancía en un mismo
periodo de tiempo. La velocidad de las memorias se mide en Hertzios (su
frecuencia efectiva) y se van diseñando tecnologías con más velocidad, se
destacan las adjuntas en la siguiente tabla:

Tecnología
Frecuencia efectiva (MHz)
Ancho de banda (GB/s)
GDDR
166 - 950
1,2 - 30,4
GDDR2
533 - 1000
8,5 - 16
GDDR3
700 - 1700
5,6 - 54,4
GDDR4
1600 - 1800
64 - 86,4
GDDR5
3200 - 7000
24 - 448
Ancho de banda: Es la tasa de datos que pueden transportarse en una unidad de
tiempo. Un ancho de banda insuficiente se traduce en un importante limitador de
potencia de la GPU. Habitualmente se mide en "Gigabytes por segundo" (GB/s).
Su fórmula general es el cociente del producto de la interfaz de memoria (expresada
en bits) por la frecuencia efectiva de las memorias (expresada en Gigahertzios), entre
8 para convertir bits a bytes.
Por ejemplo, tenemos una tarjeta gráfica con 256 bits de interfaz de memoria y
4200 MHz de frecuencia efectiva y necesitamos hallar su ancho de banda:
Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer,
encargado de gestionar las coordenadas de profundidad de las imágenes en
losgráficos 3D.
RAMDAC[editar]
El RAMDAC es un conversor de señal digital a analógico de memoria RAM.
Se encarga de transformar las señales digitales producidas en el ordenador
en una señal analógica que sea interpretable por el monitor. Según el número
de bits que maneje a la vez y la velocidad con que lo haga, el conversor será
capaz de dar soporte a diferentes velocidades de refresco del monitor (se
recomienda trabajar a partir de 75 Hz, y nunca inferior a 60).9 Dada la
creciente popularidad de los monitores de señal digital, el RAMDAC está
quedando obsoleto, puesto que no es necesaria la conversión analógica si
bien es cierto que muchos conservan conexión VGA por compatibilidad.
Espacio que ocupan las texturas almacenadas[editar]
El espacio que ocupa una imagen representada en el monitor viene dada en
función de su resolución y su profundidad de color, es decir, una imagen sin
comprimir en formato estándar Full HD con 1920x1080 píxeles y 32 bits de
profundidad de color ocuparía 66.355.200 bits, es decir, 8,294 MiB
Salidas[editar]
Salidas HDMI, D-Sub 15 y DVI de una tarjeta gráfica
Salidas SVGA, S-Video y DVI de una tarjeta gráfica
Los sistemas de conexión más habituales entre la tarjeta gráfica y el
dispositivo visualizador (como un monitor o un televisor) son:

SVGA/Dsub-15: Estándar analógico de los años 1990; diseñado para
dispositivosCRT, sufre de ruido eléctrico y distorsión por la conversión de
digital a analógico y el error de muestreo al evaluar los píxeles a enviar al
monitor. Se conecta mediante pines. Su utilización continúa muy
extendida a día de hoy, aunque claramente muestra una reducción frente
al DVI en los últimos años.

DVI: Sustituto del anterior, pero digital, fue diseñado para obtener la
máxima calidad de visualización en las pantallas digitales o proyectores.
Se conecta mediante pines. Evita la distorsión y el ruido al corresponder
directamente un píxel a representar con uno del monitor en la resolución
nativa del mismo. Cada vez más adoptado, aunque compite con el HDMI,
pues el DVI no es capaz de transmitir audio.

HDMI: Tecnología propietaria transmisora de audio y vídeo digital de alta
definición cifrado sin compresión en un mismo cable. Se conecta
mediante patillas de contacto. No está pensado inicialmente para
monitores, sino para Televisiones, por ello no apaga la pantalla cuando
deja de recibir señal y debe hacerse manualmente en caso de monitores.
Otras no tan extendidas por un uso minoritatio, no implementadas u obsoletas
son:

DisplayPort: Puerto para tarjetas gráficas creado por VESA y rival del
HDMI, transfiere vídeo a alta resolución y audio. Sus ventajas son que
está libre de patentes, y por ende de regalías para incorporarlo a los
aparatos, también dispone de unas pestañas para anclar el conector
impidiendo que se desconecte el cable accidentalmente. Cada vez más
tarjetas gráficas van adoptando este sistema, aunque a día de hoy, sigue
siendo su uso minoritario, existe una versión reducida de dicho conector
llamada Mini DisplayPort, muy usada para tarjetas gráficas con multitud
de salidas simultáneas, como pueden ser 5.

S-Video: implementado sobre todo en tarjetas con sintonizador TV y/o
chips con soporte de vídeo NTSC/PAL, simplemente se está quedando
obsoleto.

Vídeo Compuesto: analógico de muy baja resolución mediante conector
RCA. Completamente en desuso para tarjetas gráficas, aunque sigue
siendo usado para TV.

Vídeo por componentes: Sistema analógico de transmisión de vídeo de
alta definición, utilizado también para proyectores; de calidad comparable
a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). Anteriormente usado
en PCs y estaciones de trabajo de gama alta, ha quedador relegado a TV
y videoconsolas.

DA-15 conector RGB usado mayoritariamente en los antiguos Apple
Macintosh. Completamente en desuso.

Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y
variantes, EGA y muy contadas VGA). Completamente obsoleto
Interfaces con la placa base[editar]
Bus
Anchura
(bits)
Frecuencia
(MHz)
Ancho
de banda
(MB/s)
Puerto
ISA XT
8
4,77
8
Paralelo
ISA AT
16
8,33
16
Paralelo
MCA
32
10
20
Paralelo
EISA
32
8,33
32
Paralelo
VESA
32
40
160
Paralelo
PCI
32 - 64
33 - 100
132 - 800
Paralelo
AGP 1x
32
66
264
Paralelo
AGP 2x
32
133
528
Paralelo
AGP 4x
32
266
1000
Paralelo
AGP 8x
32
533
2000
Paralelo
PCIe x1
1*32
25 / 50
100 / 200
Serie
PCIe x4
1*32
25 / 50
400 / 800
Serie
PCIe x8
1*32
25 / 50
800 / 1600
Serie
PCIe x16
1*32
25 / 50
1600 / 3200
Serie
PCIe x16 2.0
1*32
25 / 50
3200 / 6400
Serie
En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la
placa base han sido, principalmente:

Slot MSX : bus de 8 bits usado en los equipos MSX

ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años
1980; fue creada en 1981 para los IBM PC.

Zorro II usado en los Commodore Amiga 2000 y Commodore Amiga
1500.

Zorro III usado en los Commodore Amiga 3000 y Commodore Amiga
4000

NuBus usado en los Apple Macintosh

Processor Direct Slot usado en los Apple Macintosh

MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits
y una velocidad de 10 MHz, pero era incompatible con los anteriores.

EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz
y compatible con las placas anteriores.

VESA: extensión de ISA que solucionaba la restricción de los 16 bits,
duplicando el tamaño de bus y con una velocidad de 33 MHz.

PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño
de 32 bits y una velocidad de 33 MHz, permitía una configuración
dinámica de los dispositivos conectados sin necesidad de ajustar
manualmente los jumpers. PCI-X fue una versión que aumentó el tamaño
del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz.

AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial
incrementaba la velocidad hasta los 66 MHz.

PCIe: interfaz serie que desde 2004 empezó a competir contra AGP,
llegando a doblar en 2006 el ancho de banda de aquel. Sufre de
constantes revisiones multiplicando su ancho de banda, ya existiendo la
versión 3.0. No debe confundirse con PCI-X, versión de PCI.
En la tabla adjunta10 11 se muestran las características más relevantes de
algunas de dichas interfaces.
Dispositivos refrigerantes[editar]
Conjunto de disipador y ventilador.
Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas
alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor
generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para
evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor
excesivo de la tarjeta. Se distinguen dos tipos:

Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso);
compuesto de un metal muy conductor del calor, extrae este de la tarjeta.
Su eficiencia va en función de la estructura y la superficie total, por lo que
a mayor demanda de refrigeración, mayor debe ser la superficie del
disipador.

Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado
de la tarjeta al mover el aire cercano. Es menos eficiente que un
disipador, siempre que nos refiramos al ventilador sólo, y produce ruido al
tener partes móviles.
Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y
suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la
GPU extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto.

Refrigeración Líquida: La refrigeración líquida o watercooling es una
técnica de enfriamiento utilizando agua en vez de disipadores de calor y
ventiladores (dentro del chasis), logrando así excelentes resultados en
cuanto a temperaturas, y con enormes posibilidades en overclock. Se
suele realizar con circuitos de agua estancos.
El agua, y cualquier líquido refrigerante, tienen mayor capacidad térmica que
el aire. A partir de este principio, la idea es extraer el calor generado por los
componentes de la computadora usando como medio el agua, enfriarla una
vez fuera del gabinete y luego reintroducirla.
Alimentación[editar]
Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había
supuesto un gran problema, sin embargo, la tendencia actual de las nuevas
tarjetas es consumir cada vez más energía. Aunque las fuentes de
alimentación son cada día más potentes, la insuficiencia energética se
encuentra en la que puede proporcionar el puerto PCIe que sólo es capaz de
aportar una potencia por sí sólo de 75 W.12 Por este motivo, las tarjetas
gráficas con un consumo superior al que puede suministrar PCIe incluyen un
conector (PCIe power connector)13 que permite una conexión directa entre la
fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y,
por tanto, por el puerto PCIe.
Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas
podrían necesitar una fuente de alimentación propia, convirtiéndose dicho
conjunto en dispositivos externos.14
Tipos antiguos de tarjetas gráficas[editar]
Tarjeta MDA[editar]
"Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada
por IBM como una memoria de 4 KiB de forma exclusiva para monitores TTL
(que representaban los clásicos caracteres en ámbar o verde). No disponía
de gráficos y su única resolución era la presentada en modo texto (80x25) en
caracteres de 14x9 puntos, sin ninguna posibilidad de configuración.
Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la
matriz de puntos que se desea visualizar y se envía al monitor como
información serie. No debe sorprender la falta de procesamiento gráfico, ya
que, en estos primeros PC no existían aplicaciones que realmente pudiesen
aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a
información en modo texto.
Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su
día) un puerto de comunicación para la impresora ¡Una asociación más que
extraña a día de hoy!
Tarjeta CGA[editar]
"Color Graphics Array" o "Color graphics adapter" según el texto al que se
recurra. Aparece en el año 1981 también de la mano de IBM y fue muy
extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25
filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los
caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que
los sustituía por diferentes intensidades en el carácter en cuestión.En modo
gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KiB y
solo era compatible con monitores RGB y Compuestos. A pesar de ser
superior a la MDA, muchos usuarios preferían esta última dado que la
distancia entre puntos de la rejilla de potencial en los monitores CGA era
mayor. El tratamiento del color, por supuesto de modo digital, se realizaba
con tres bits y uno más para intensidades. Así era posible lograr 8 colores con
dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes
pero no reproducibles en todas las resoluciones tal y como se muestra en el
cuadro adjunto.
Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow".
Este problema era de carácter aleatorio y consistía en la aparición de "nieve"
en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen).
Tanto era así que algunas BIOS de la época incluían en su SETUP la opción
de eliminación de nieve ("No snow").
Tarjeta HGC[editar]
"Hercules Graphics Card" o más popularmente conocida como Hércules
(nombre de la empresa productora), aparece en el año 1982, con gran éxito
convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de
las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos
en monocromo con 64 KiB de memoria. Al no disponer de color, la única
misión de la memoria es la de referenciar cada uno de los puntos de la
pantalla usando 30,58 KiB para el modo gráfico (1 bit x 720 x 348) y el resto
para el modo texto y otras funciones. Las lecturas se realizaban a una
frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los
caracteres se dibujaban en matrices de 14x9 puntos.
D
i
s
e
ñ
a
d
o
r
e
s
,
Diseñadores de GPU
Ensambladores de Tarjetas
F
a
b
r
i
c
a
n
t
es y ensambladores[editar]
AMD
nVIDIA
GECUBE
POINT OF VIEW
CLUB3D
CLUB3D
POWERCOLOR
EVGA
MSI
MSI
XFX
GAINWARD
ASUS
ASUS
SAPPHIRE
ZOTAC
GIGABYTE
GIGABYTE
HIS
ECS ELITEGROUP
DIAMOND
PNY
-
SPARKLE
-
GALAXY
-
PALIT
En el mercado de las tarjetas gráficas hay que distinguir tres tipos de
fabricantes:

Diseñadores de GPU: diseñan y generan exclusivamente la GPU. Los
dos más importantes son:


AMD, anteriormente conocida como ATi

nVIDIA
GPU integrado en el chipset de la placa base: también
destaca Intel además de los antes citados nVIDIA y AMD.
Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado
muy reducida. Todos ellos contratan y encargan a fabricantes ciertas
unidades de chips a partir de un diseño.

Fabricantes de GPU: Son quienes fabrican y suministran las unidades
extraídas de las obleas de chips a los ensambladores. TSMC y Global
Foundries son claros ejemplos.

Ensambladores: integran las GPUs proporcionadas por los fabricantes
con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el
mismo chip tengan formas o conexiones diferentes o puedan dar ligeras
diferencias de rendimientos, en especial tarjetas gráficas modificadas u
overclokeadas de fábrica.
En la tabla adjunta se muestra una relación de los dos diseñadores de chips y
algunos de los ensambladores de tarjetas con los que trabajan.
ATI Technologies
ATI Technologies Inc.
Tipo
Subsidiaria NYSE: AMD
Industria
Semiconductores
Fundación
20 de agosto de 1985 (ATI)
Sede
1 Commerce Valley Drive East
Markham, Ontario,
Canadá
Administración
David E. Orton (Gerente)
Productos
Tarjetas gráficas,procesadores
gráficos,placas bases, chipsets
Matriz
AMD
Sitio web
amd.com
Reestructuración 25 de octubre de 2006
ATI Technologies Inc. fue una de las mayores empresas de hardware que diseñaba GPU y
tarjetas gráficas, fue comprada por AMD en el año 2006 pero mantuvo su nombre para
algunos productos hasta la salida de la serie Radeon HD 6000 en el 2010. Su mercado
acaparó todo tipo de productos para el procesamiento gráfico y multimedia, tanto
para computadoras personales, como para dispositivos portátiles, videoconsolas, teléfonos
móviles y televisión digital. Su fundación data del 20 de agosto de 1985 (ATI). A la empresa se
le ha conocido por varios nombres. Se fundó llamándose Array Technology Inc., pero durante
los primeros 5 meses se le cambió aArray Technologies Inc., el 18 de diciembre de 1985 pasó
a llamarse ATI Technologies Inc., y definitivamente pasó a ser parte de AMD el 25 de octubre
de 2006.
AMD tiene su sede en Markham, Ontario, en Canadá. Su plantilla laboral, de acuerdo con
su sitio web corporativo, es de 3.300 empleados directos en el continente
americano, Europa y Asia. Aunque la manufactura de los productos de AMD se realiza
principalmente en Canadá y Taiwán.
Índice
[ocultar]

1 Historia de su fundación

2 Eventos

3 Productos
o
3.1 Computadoras personales y plataformas de chipsets
o
3.2 Soluciones multimedia y TV digital
o
3.3 Soluciones gráficas para consolas
o
3.4 Chipsets de mano
o
3.5 Computación de alto rendimiento

4 Controladores

5 Véase también

6 Enlaces externos
Historia de su fundación[editar]
ATI fue fundado por Kwok Yuen Ho (nacido en China), Benny Lau y Lee Lau (ambos nacidos
en Hong Kong). Ho, el hijo más pequeño de una humilde familia, tuvo que alternar los estudios
con el trabajo en el campo. Se graduó de la carrera de Ingeniero Electrónico y comenzó una
exitosa carrera pasando por las empresasPhilips Electronics y Wong's Electronics Co.
Ltd donde adquirió una gran experiencia laboral, hasta que en 1984 emigra a Canadá.
Kwok Yuen Ho no pudo seguir trabajando en empleos de su agrado como los que desarrolló
en su periodo anterior en Asia, los primeros meses en Canadá fueron duros, pero tuvo la
suerte de encontrarse con los también inmigrantes Benny Lau y Lee Lau con semejantes
inquietudes que él, y fundaron Array Technology Inc.. Esta era una compañía gráfica pero el
proyecto final era dedicarse a las computadoras pero para ello necesitaban acumular mucho
capital por lo que tuvieron que empezar ahorrando con esta humilde empresa.
Los inicios fueron muy difíciles, la plantilla apenas era de 6 personas incluyendo a los 3
fundadores y debido a no contar con ningún apoyo el capital se fue agotando hasta que pocos
meses después de su fundación tuvieron que pedir un préstamo para poder seguir adelante.
El mercado demandaba chips gráficos y ATI firmó un acuerdo con Commodore por el cual
abastecería a esta compañía, y así fue como superaron el bache inicial, a finales de 1986 la
compañía había multiplicado su capital y producía más de 7 millares de chips de gráficos en
2D por semana.
Eventos[editar]
En julio de 1987 ATI lanza al mercado la familia EGA Wonder y VESA Wonder superando en
potencia gráfica a las tarjetas convencionales. En abril de 1989 ayuda a establecer un
estándar VESA en el sector gráfico y en mayo de 1991 ATI crea la familia de productos Mach8
capaz de procesar gráficos independientemente de la Unidad Central de Procesamiento CPU.
Al año siguiente ATI evoluciona su chipset y saca el Mach32 que integra la controladora y la
aceleradora gráfica en un único chip.
En noviembre de 1993, salió al mercado y comenzó a cotizar en la bolsa de Toronto. En
agosto de 1994 ATI introdujo el Mach64 que es reconocido como el primer chipset de
aceleración de video en movimiento, contaba con el apoyo de Graphics Xpression y Graphics
Pro Turbo, tenía soporte de hardware para conversión del espacio de color YUV a RGB, y esto
sirvió para proveer aceleración MPEG para PC.
A finales de 1996 desarrolló el primer chip con aceleración gráfica 3D al que llamó Rage, ATI
ya sobrepasaba el millón de chips gráficos vendidos, además ya disponía de varias sedes
repartidas por Europa. Aunque no fue hasta 1997 con su chipset Rage II cuando se hizo con el
mercado 3D. Este fue el primero en soportar Z-Buffer por hardware, compresión de texturas,
filtrado bilineal, trilineal y un interesante número de modos de mezcla de texturas bajo
Direct3D. En abril lanzo el 3D Rage Pro como uno de los primeras aceleradoras AGP y con
gran rendimiento en DVD, poseía un gran diseño e incluso llegó a lanzarla en versiones con
AGP 2X. Sin embargo, los drivers limitaban el rendimiento de la placa y perdió el primer
puesto en el ranking de la aceleración gráfica.
A finales de año la compañía adquiere Tseng Labs líder en el sector de gráficos 2D,
incluyendo 40 nuevos ingenieros con los que en 1998 desarrolló el Rage 128 GL que
soportaba OpenGL. El buen hacer de las memorias permitían a las Rage 128 GL correr
extraordinariamente en 32-bit con 32 MB de RAM. Sin embargo en los 16-bit (lo más habitual
en los juegos y aplicaciones en ese momento) este rendimiento no se consiguió, por lo que
ATI no consiguió establecerse como líder en el mercado 3D, aunque poseía el mejor soporte
para reproducción de DVD.
En los primeros meses de 1999, Ho fue elegido como uno de los 25 mejores empresarios del
momento por la revista Business Week Magazine, además ATI puso a sus Rage a AGP 4X y
creó la primera tarjeta gráfica para portátiles con 8 MB de memoria integrada, la Rage Mobility.
Para abril anuncio el nuevo Rage 128 Pro que mejoraba el chipset original incluyendo filtro
anisótropo, un mejor motor de cálculo de triángulos y mayor velocidad de reloj, pero las
mejoras no fueron suficientes y no llegó a competir con sus rivales. También ATI intentó
desbancar a la competencia creando la Rage Fury Maxx que utilizaba dos procesadores
trabajando en paralelo pero que no llegó a funcionar como se deseaba y además el costo era
más elevado porque también necesitaba el doble de memoria de lo normal.
En abril de 2000 ATI adquiere ArtX líder en el desarrollo de chips gráficos de alto rendimiento
(uno de ellos el Flipper fue usado para la Nintendo GameCube) y además anuncia la llegada
su sexta generación de chips los R100 y la primera placa que los aprovechó fue la Radeon
256. Sus características eran un gran ancho de banda, tecnología HyperZ (ahorraba el cálculo
de los objetos no observables), memorias DDR (más rápidas), full hardware T&L (para el
cálculo de las luces y las sombras) y Environment Mapped Bump Mapping, como también dos
pixel pipelines capaces de usar tres texturas a la vez. ATI dio un salto cualitativo, mejoraron
sus drivers Catalyst, su rendimiento en resoluciones de 1024x768 y superiores era
sorprendente y volvía a liderar el sector. El dominio duró poco ya que los drivers de la
competencia sacaban más provecho a sus productos pero las ventajas en reproducción de
MPEG hizo que muchos usuarios optaran por las Radeon, que con el lanzamiento de las Allin-Wonder Radeon proveía a los usuarios todo lo necesario que una placa de video pueda
ofrecer.
En 2001 la compañía se dedica a lanzar sus Radeon Mobility para portátiles y las
Radeon FireGL para estaciones de trabajo que necesitaran mucha potencia gráfica (tras la
compra del departamento de gráficas profesionales FireGL a Diamond Multimedia ese mismo
año). Además comienza una época de constante evolución y mejoría de sus Radeon y su
chipset R100 (utilizado en las Radeon 7000, 7200, 7500 y 7800GL) evoluciona al R200
(utilizado en las Radeon 8000, 8500, 9100 y 8800GL).
En los años 2002 y 2003 anunció que fabricaría y desarrollaría el chip gráfico de la nueva
consola de Microsoft la Xbox 360 y de la nueva consola de Nintendo, laWii (aunque en aquel
momento el nombre del proyecto era Revolution). Además desarrolla el R300, que utilizará en
la Radeon 9000, 9200, 9500, 9600, 9800 (la gama se hacía cada vez mayor para que el
usuario pudiera elegir la más idónea en función del precio que estuviera dispuesto a pagar) y
en la más aclamada de todas la 9700. Esta última culminó dos grandes años para ATI en el
que la competencia nunca le hizo sombra en el top de las tarjetas aceleradoras.
En 2004 surge un nuevo estándar de conexión a la placa base el PCI Express X16 (PCI-E),
que dobla en velocidad al AGP 8X. A lo largo de este año y de los siguientes se han
desarrollado el R400 y R480 con la gama de Radeon X300, X500, X600, X700, X800, X850 y
con el R500 la gama de Radeon X1300, X1600, X1800 y X1900, esta última se ha llegado a
mejorar en velocidades de reloj de la GPU y de la memoria hasta la X1950 XTX, que es de las
más altas de las tarjetas gráficas de hoy en día. Fue la primera tarjeta que utilizó las nuevas
memorias GDDR 4.
En el 2005 Ati implanta junto a Microsoft la tarjeta gráfica ATI Xenos para la
videoconsola XBOX 360. Está basada en el chip de la serie R500, con 500 MHz a 90 nm. Es
la primera GPU en usar arquitectura de Shaders unificados.
El 24 de julio de 2006, ATI fue comprada por el fabricante de procesadores AMD, en una
operación que costó a esta última 5.400 millones de dólares. Actualmente, sus líneas de
productos más conocidas son las tarjetas gráficas Radeon y ALL-IN-WONDER, esta última
caracterizada por disponer de captura de vídeo y audio. Hacia septiembre de 2006 la serie
ALL-IN-WONDER fue descontinuada. Paralelamente, otras tecnologías fueron incorporándose
al muestrario de productos comoAvivo (para vídeo y contenidos en Alta Definición), añadidura
de gestión HDCP (High Definition Digital Contents Protection), y como la capacitación y
certificación de componentes aptos para Windows Vista, el también reciente por aquellas
fechas, nuevo Sistema Operativo de Microsoft.
AMD Markham en la antigua sede de ATI Technologies
El 25 de octubre de 2006 ATI pasa a ser parte de AMD definitivamente. Hay que puntualizar
que todas sus tarjetas gráficas incluyen el chip de sonido integrado, ya que otra marca del
mismo ramo de hardware no lo monta en sus tarjetas gráficas.
A mediados de noviembre de 2007 aparece la revisión RV670 de la serie del chip R600
fabricado en 55nm con 666 millones de transistores. Concretamente la tarjeta gráfica HD
3870 (512 MB, GDDR 4) trabaja a unos 775 MHz de frecuencia en Núcleo y 2.25 Ghz
Memoria. Da soporte para las APIs DirectX10.1 y OpenGl 2.0. Incluye salida HDMI y puede
ser configurada en formato CROSSFIREX: revolucionaria tecnología que permite usar dos o
más tarjetas gráficas en el mismo equipo informático (con el significativo aumento de
rendimento que implica), pero sin ser necesariamente las dos el mismo modelo. Simplemente
deben ser compatibles con el uso de esta tecnología entre sí, y con una placa base capacitada
para dicha función. "Mejor consultar el esquema de compatibilidad CROSSFIREX en la
web AMD ATI". Cabe mencionar la también incipiente tecnología HYBRYD CROSSFIRE.
2008.Se produce la comercialización de la tarjeta HD 3870 X2 con doble GPU incorporada y
soporteHDMI (High Definition Multimedia Interface). La cual prácticamente batió en casi
todos los test al más poderoso lanzamiento que el rival hizo en su momento: Nvidia Geforce
8800 Ultra, según indicaron las comparativas diseminadas por las webs especializadas en
hardware. Siendo también, como es habitual, más barata que su oponente.
Agosto 2008. Llegó el reemplazo del anterior chip por el nuevo RV770 fabricado en 55 nm.
Algunas tarjetas gráficas con este chip, de las series HD4870 montan memorias GDDR 5 y
la HD4850 sigue llevando GDDR3. La máxima expresión es la HD 4870X2, también
multinúcleo, cuyas comparativas en lugares especializados en hardware no dejan lugar a
dudas: estamos ante la GRAN tarjeta gráfica del 2008.
Noviembre 2008. Disponible en la web oficial de AMD ATI el "Kit de fans" que incluye
distintos tapices de escritorio, logos, banners, fotos e iconos basados en el personaje
de Ruby. También una serie de vídeos en los que Ruby protagoniza escenas de acción
heroicas contra personajes como Óptico y Assasin. También se puede localizar y descargar
material para fans de Rainbow 6 Las Vegas 2 donde destaca un espectacular salvapantallas
de escritorio. Todo el material mencionado es completamente gratuito.
Diciembre 2008. Llegan noticias de AlienWare M17, el primer portátil que incorpora dos
tarjetas gráficas en configuración CROSSFIREX. El Chip RV770 a esta fecha ha vendido
alrededor de dos millones de unidades gráficas en todo el mundo. Mientras, los de Sunnyvale
(California), están inmersos en el desarrollo de ATI STREAM, una iniciativa tanto en software
como hardware para aprovechar ciertas aplicaciones que requieran una elevada potencia de
cálculo y que se beneficiarán directamente de la capacidad de procesamiento de las GPUs a
partir de la serie HD 4000. Se prevé que irán incluidas en el driver ATI CATALYST 8.12, en
principio, seria sólo para las gráficas de serie HD 4000extendiéndose en todos los modelos
superiores y soportados en todas los drivers posteriores. Unos meses después, ATI saca la
HD 4770, la primera GPU fabricada 40nm que existe.
Septiembre 2009 Llegan las Radeon (GPUs RV800) a 40nm nombre en código Cypress, y
nombres comerciales HD 5870 y HD 5850, con 1600 SP y GDDR5 a 4600 MHZ. Unas
semanas después llegarían las sustitutas en rendimiento de las HD 4800 series, de nombre en
clave Juniper, con nombres comerciales 5770 y 5750.
Noviembre 2009 Llega la tarjeta HD 5970, formada por 2 GPUs RV870 obteniendo una clara
corona de rendimiento en ese momento, ya que nVidia en dicho momento, se retrasaría en
sacar sus nuevas GPU's, "Fermi"
Otoño 2010 AMD lanza al mercado la serie HD 6000 a 40 nm de nombre en clave Southern
Islands, un puente entre la arquitectura anterior y la posterior, que renovará totalmente
arquitectura desde la serie HD 3000. De paso, AMD elimina totalmente el nombre de ATi para
pasar a ser AMD en todos sus productos.
Productos[editar]
Además del desarrollo de GPUs de Gama Alta (originalmente llamada por ATI como VPU,
unidad de procesamiento visual) para PC, ATI también diseña versiones integradas en
portátiles (Mobility Radeon), PDA y teléfonos móviles (Imageon), placas base integradas
(Radeon IGP), en Televisión Digital las STB (Set-top boxes, Xilleon) y otros.
ATI promueve algunos de sus productos con el personaje ficticio femenino "Ruby", una
"mercenaria por contrato." [13] Los videos de Animación por computadora donde Ruby
aparece en misiones son producidos por RhinoFX (siendo francotirador, saboteador, hacker,
etc) los cuales son mostrados en grandes eventos de tecnología como CeBIT y CES.
Chipsets gráficos para computadoras

Soluciones Gráficas - Serie de 8-bits con tarjetas ISA MDA, Hércules y compatibilidad
CGA . Las versiones posteriores añadieron soporte EGA.

EGA / VGA Wonder - adaptadores de pantalla IBM "compatible con EGA/VGA" (1987)

Serie Mach - ATI presentó el primer "Acelerador de Windows" GUI 2D . Con la evolución
de la serie, la aceleración GUI mejoró espectacularmente y apareció prontamente la
aceleración de video.

Serie Rage - Primeros chips de ATI en aceleración 2D y 3D. La serie evolucionó de una
rudimentaria aceleración 3D con 2D GUI y capacidad MPEG-1, a un altamente competitivo
acelerador Direct3D 6 con el entonces "mejor en su clase" en aceleración DVD (MPEG2).
Los distintos chips fueron muy populares entre los fabricantes de equipos originales
(OEMs) de la época. La Rage II se utilizó en la primera tarjeta de vídeo multifuncional la
ATI All-In-Wonder, y en las más avanzadas series All-In-Wonder basadas en GPUs Rage
que le siguieron. (1995-2004)

Rage Mobility - Diseñado para su uso en entornos de baja potencia, como las notebooks.
Estos chips son funcionalmente similares a sus contrapartes de escritorio, pero con
adiciones como la avanzada gestión de la energía, interfaz LCD, y funcionalidad con dos
monitores .

Radeon Serie - Lanzado en 2000, la línea Radeon de ATI es la marca para el público en
general de tarjetas aceleradoras de 3D . El original Radeon DDR de ATI fue la primera
aceleradora 3D en DirectX 7, fue su primer motor gráfico que soportaba Hardware T&L.
ATI a menudo produjo versiones «Pro» con mayores velocidades de reloj y, a veces, una
versión extrema "XT", e incluso más recientemente 'XT Platinum Edition PE) "y versiones "
XTX ". La serie Radeon fue la base para muchas placas ATI All-In-Wonder.

Mobility Radeon - Una serie de versiones con poder optimizado de chips gráficos Radeon
para su uso en ordenadores portátiles. Introdujeron innovaciones tales como los chips de
módulos RAM, aceleración DVD (MPEG2), sockets para GPU en notebooks, y
"PowerPlay" tecnología de gestión de energía.

ATI CrossFire - Esta tecnología es la respuesta de ATI a la la plataforma SLI de NVIDIA .
Que permite, mediante el uso de una tarjeta de vídeo secundaria y una placa madre con
doble PCI-E basada en un chipset compatible con Crossfire de ATI, la capacidad de
combinar el poder de las dos tarjetas de video para aumentar el rendimiento a través de
una variedad de diferentes opciones de renderizado. Hay una opción adicional para
tarjetas de vídeo PCI-E de conectar en la tercer ranura PCI-E una tarjeta para juegos de
física al azar, u otra opción de hacer azar de la física en la segunda tarjeta de vídeo [14].

FireGL - Lanzado en 2001, tras la adquisición por ATI de FireGL Graphics de Diamond
Multimedia. Lanzó tarjeta de vídeos para Workstations CAD / CAM, basadas en la serie
Radeon.

FireMV - Para workstations, con multi-vision, una tecnología necesaria para mostra
pantallas múltiples en estaciones de trabajo con sólo aceleración 2D, generalmente sobre
la base de la gama baja de productos de la serie Radeon.
Advanced Micro Devices, Inc. (NYSE: AMD) o AMD es una compañía estadounidense
de semiconductoresestablecida en Sunnyvale, California, que desarrolla procesadores de
cómputo y productos tecnológicos relacionados para el mercado de consumo. Sus productos
principales incluyen microprocesadores, chipsets paraplacas base, circuitos integrados
auxiliares, procesadores embebidos y procesadores gráficos para servidores,estaciones de
trabajo, computadores personales y aplicaciones para sistemas embedidos.
AMD es el segundo proveedor de microprocesadores basados en la arquitectura x86 y
también uno de los más grandes fabricantes de unidades de procesamiento gráfico. También
posee un 8,6% de Spansion, un proveedor dememoria flash no volátil.)10 En 2011, AMD se
ubicó en el lugar 11 en la lista de fabricantes de semiconductores en términos de ingresos.11
Índice
[ocultar]

1 Historia Corporativa

2 Historia de lanzamientos al mercado

o
2.1 8086, Am286, Am386, Am486, Am5x86
o
2.2 K5, K6, Athlon, Duron y Sempron
o
2.3 AMD64 / K8

2.3.1 Dual-core Athlon 64 X2

2.3.2 Turion 64
o
2.4 Phenom (K10)
o
2.5 Athlon II y Phenom II
o
2.6 Fusion, Bobcat, Bulldozer y Vishera
o
2.7 Chips basados en arquitectura ARM
3 Otras plataformas y tecnologías
o
3.1 Iniciativa 50X15
o
3.2 AMD / ATI
o
3.3 Sistemas integrados

3.3.1 Geode

4 Referencias

5 Véase también

6 Enlaces externos
AMD
Historia Corporativa[editar]
Sede de AMD en Sunnyvale, California
AMD Markham en Canadá, antiguamente sede de ATI
LEED de AMD campo Lone Star enAustin, Texas
Advanced Micro Devices se fundó el 1 de mayo de 1969 por un grupo de ejecutivos
de Fairchild Semiconductor, incluidos Jerry Sanders III, Edwin Turney, John Carey, Sven
Simonsen, Jack Gifford y 3 miembros del equipo deGifford, Frank Botte, Jim Giles y Larry
Stenger. La compañía empezó a producir circuitos integrados lógicos, luego entró en el
negocio de las memorias RAM en 1975. Ese mismo año hizo una copia
de microprocesador Intel 8080mediante técnicas de ingeniería inversa , al cual nombro como
AMD 9080. Durante este período, AMD también diseñó y produjo una serie de
procesadores Bit slicing (Am2901, Am29116, Am293xx) que fueron usados en varios diseños
de microcomputadores.
Durante ese tiempo, AMD intentó cambiar la percepción que se tenía del RISC con sus
procesadores AMD 29k y trató de diversificarlo introduciendo unidades gráficas y de video así
como memorias EPROM. Esto tuvo su éxito a mediados de 1980 con el AMD7910 y
AMD7911, unas de las primeras unidades que soportaban varios estándares tanto Bell como
CCITT en 1200 baudios half duplex o 300/300 full duplex. El AMD 29k sobrevivió como
un procesador embebido y AMD spin-off Spansion pasó a ser líder en la producción
de Memorias flash. AMD decide cambiar de rumbo y concentrarse únicamente en los
microprocesadores compatibles con Intel, colocándolo directamente en competencia con este
y las memorias flash destinarlas a mercados secundarios.
AMD anuncia la adquisición de ATI Technologies el 24 de julio de 2006. AMD paga 4,3 mil
millones de dólares en efectivo y 58 millones en acciones por un total de 5,4 mil millones. La
adquisición se completó el 25 de octubre de 2006 y ahora ATI es parte de AMD.12
En diciembre de 2006 se comunicó a AMD y a su principal competidor, Nvidia, que podrían
estar violando leyes antimonopólicas incluyendo la capacidad de fijar precios.13
En octubre de 2008, AMD anunció planes para escindir las operaciones de fabricación en
forma de una empresa conjunta multimillonaria con la tecnoloógica Advanced Investment Co.,
una compañía de inversiones formada por el gobierno de Abu Dhabi. La nueva empresa se
llama GlobalFoundries Inc.. Esta alianza permitiría a AMD centrarse únicamente en el diseño
de chips.14 La escisión estuvo acompañada por la pérdida de cerca de 1.000 puestos de
trabajo, o alrededor del 10% de la fuerza laboral mundial de AMD.15
En agosto de 2011, AMD anunció que el ex ejecutivo de Lenovo Rory Read se uniría a la
compañía como director general, después de Dirk Meyer.16
AMD anunció en noviembre de 2011 los planes para despedir a más del 10% (1.400) de los
empleados de todas las divisiones en todo el mundo. Esta acción sería completada en Q1
2012 con la mayoría de los despidos efectuados antes de la Navidad de 2011.15 AMD anunció
en octubre de 2012 que tiene previsto despedir un 15% adicional de su fuerza de trabajo con
una fecha de vigencia indeterminada para reducir los costos de cara a la disminución de los
ingresos por ventas.17
AMD adquirió el fabricante de servidores de bajo consumo SeaMicro a principios de 2012
como parte de una estrategia para recuperar la cuota de mercado perdida en el mercado de
los chips de servidor.18
Historia de lanzamientos al mercado[editar]
8086, Am286, Am386, Am486, Am5x86[editar]
Artículos principales: Am286, Am386, Am486 y Am5x86.
En 1982 AMD firmó un contrato con Intel, convirtiéndose en otro fabricante licenciatario de
procesadores 8086 y 8088, esto porque IBM quería usar Intel 8088 en sus IBM PC, pero las
políticas de IBM de la época exigían al menos dos proveedores para sus chips. AMD produjo
después, bajo el mismo acuerdo, procesadores80286, o 286, pero Intel canceló el contrato
en 1986, rehusándose a revelar detalles técnicos del i386. La creciente popularidad del
mercado de los clones de PC significaba que Intel podría producir CPUs según sus propios
términos y no según los de IBM.
AMD apeló esa decisión y posteriormente ganó bajo arbitraje judicial. Comenzó un largo
proceso judicial que solo acabaría en 1991, cuando la Suprema Corte deCalifornia finalmente
falló a favor de AMD, y forzó a Intel a pagar más de 1000 millones de dólares en
compensación por violación de contrato. Disputas legales subsiguientes se centraron en si
AMD tenía o no derechos legales de usar derivados del microcódigo de Intel. Los fallos fueron
favoreciendo a las dos partes. En vista de la incertidumbre, AMD se vio forzado a desarrollar
versiones "en limpio" del código de Intel. Así, mientras un equipo de ingeniería describía las
funciones del código, un segundo equipo sin acceso al código original debía desarrollar
microcódigo que realizara las mismas funciones.
Llegado este punto, Jerry Sanders bien pudo retirarse del mercado. Pero en 1991 AMD lanza
el Am386, su clon del procesador Intel 80386. En menos de un año AMD vendió un millón de
unidades. El 386DX-40 de AMD fue muy popular entre los pequeños fabricantes
independientes. Luego, en 1993 llegó Am486 que, al igual que su antecesor se vendió a un
precio significativamente menor que las versiones de Intel. Am486 fue utilizado en numerosos
equipos OEM e incluso por Compaqprobando su popularidad. Pero nuevamente se trataba de
un clon de la tecnología Intel; y a medida que los ciclos de la industria de las PC se acortaban,
seguir clonando productos de Intel era una estrategia cada vez menos viable dado que AMD
siempre estaría tras Intel.
El 30 de diciembre de 1994, la Suprema Corte de California finalmente negó a AMD el
derecho de usar microcódigo de i386. Posteriormente, un acuerdo entre las dos empresas
(cuyos términos aun siguen en el mayor de los secretos) permitió a AMD producir y vender
microprocesadores con microcódigo de Intel 286, 386, y 486. El acuerdo parece haber
permitido algunos licenciamientos cruzados de patentes, permitiendo a ambas partes el uso
de innovaciones tecnológicas sin pago de derechos. Más allá de los detalles concretos del
acuerdo, desde entonces no hubo acciones legales significativas entre las empresas.
K5, K6, Athlon, Duron y Sempron[editar]
Artículos principales: AMD K5, AMD K6, Athlon, Duron y Sempron.
El primer procesador x86 completamente fabricado por AMD fue el K5 lanzado en 1996. La
"K" es una referencia a la kriptonita, que según de la tradición del cómic, es la única sustancia,
que puede perjudicar a Superman, una clara referencia a Intel, que dominaba en el mercado
en ese momento, como "Superman". El número "5" se refiere a la quinta generación de
procesadores, en la cual Intel introdujo el nombre Pentium debido a que la Oficina de Patentes
de los EE.UU. dictaminó que un sólo número no podía ser registrado como marca.
En 1996, AMD adquirió NexGen principalmente por los derechos de la serie NX de
procesadores compatibles con x86. AMD dio al equipo de diseño de NexGen un edificio
propio, los dejó solos, y les dio tiempo y dinero para reelaborar el Nx686. El resultado fue el
procesador K6, introducido en 1997. Aunque el K6 se basó en el Socket 7, algunas versiones
como el K6-3/450 fueron más rápidas que el Pentium II de Intel (procesador de sexta
generación).
El K7 es el procesador de séptima generación x86 de AMD, haciendo su debut el 23 de junio
de 1999, bajo la marca Athlon. A diferencia de los procesadores anteriores de AMD, no podría
ser utilizado en las mismas tarjetas madre, debido a problemas de licencia sobre el Slot 1 de
Intel, AMD decide entonces usar como nombre la letra "A" que hace referencia al bus del
procesador Alpha. Duron fue una versión limitada y de menor costo del Athlon (64KB en lugar
de 256KB L2 de caché) con un socket de 462-pin PGA (Socket A) o soldado directamente a la
tarjeta madre. Sempron fue lanzado como un procesador Athlon XP de menor costo
sustituyendo al Duron en el socket "A" PGA, desde entonces se ha mantenido y actualizado
esta línea hasta el socket AM3.
El 9 de octubre de 2001, fue lanzado el Athlon XP, seguido por el Athlon XP con 512 KB de
caché L2 el 10 de febrero de 2003.
AMD64 / K8[editar]
Artículos principales: Athlon 64 y Opteron.
K8 es una gran revisión de la arquitectura K7, cuya mejora más notable es el agregado de
extensiones de 64 bit sobre el conjunto de instrucciones x86. Esto es importante para AMD
puesto que marca un intento de definir el estándar x86 e imponerse, en vez de seguir los
estándares marcados por Intel. Y al respecto, AMD ha tenido éxito. La historia ha dado un giro
y Microsoft adoptó el conjunto de instrucciones de AMD, dejando a Intel el trabajo de
ingeniería inversa de las especificaciones de AMD (EM64T). Otras características notables de
K8 son el aumento de los registros de propósito general (de 8 a 16 registros), la
arquitecturaDirect Connect Architecture y el uso de HyperTransport.
El proyecto AMD64 puede ser la culminación de la visionaria estrategia de Jerry Sanders,
cuya meta corporativa para AMD fue la de convertirla en una poderosa empresa de
investigación por derecho propio, y no sólo una fábrica de clones de bajo precio, con
estrechos márgenes de ganancia.
AMD Opteron es la versión para servidores corporativos de K8; y aunque fue concebida por la
compañía para competir contra la línea IA-64 Itanium de Intel, dados los bajos volúmenes de
venta y producción de esta última, compite actualmente con la línea Xeon de Intel.
Dual-core Athlon 64 X2[editar]
Artículo principal: Athlon 64 X2
Turion 64[editar]
Artículo principal: Turion 64
El procesador AMD Turion 64 es una versión de bajo consumo del procesador AMD Athlon
64 destinada a los ordenadores portátiles, que salieron a competir contra la
tecnología Centrino de Intel. Se presentan en dos series, ML con un consumo máximo de 35
W y MT con un consumo de 25 W, frente a los 27 W del Intel Pentium M.
NVIDIA
(Redirigido desde «Nvidia»)
Nvidia Corporation
Tipo
Multinacional (NASDAQ:NVDA)
Industria
Semiconductores
Fundación
1993
Sede
Santa Clara, California,Estados Unidos
Administración
Jen-Hsun Huang
Productos
Procesadores gráficos, placas base, chipsets
Ingresos
3.052,23 millones de €1(2012)
Beneficio neto
346 millones de €2 (2012)
Empleados
6.5403 (2008)
Sitio web
www.nvidia.com
Nvidia Corporation (NASDAQ: NVDA) es una empresa multinacional especializada en el
desarrollo de unidades de procesamiento gráfico y tecnologías de circuitos
integrados para estaciones de trabajo, ordenadores personalesy dispositivos móviles. Con
sede en Santa Clara, California,4 la compañía se ha convertido en uno de los principales
proveedores de circuitos integrados (CI), como unidades de procesamiento gráfico GPU y
conjuntos de chips usados en tarjetas de gráficos en videoconsolas y placas base de
computadora personal.
NVIDIA produce GPUs incluyendo la serie GeForce para videojuegos, la serie NVIDIA
Quadro de diseño asistido por ordenador y la creación de contenido digital en las estaciones
de trabajo, y la serie de circuitos integrados nForce para placas base.
Los drivers de Nvidia son conocidos por las restricciones artificialmente impuestas, como
limitar el número de monitores que se pueden usar al mismo tiempo.5
Índice
[ocultar]

1 Historia

2 Chips gráficos

3 Chips gráficos para uso profesional y científico

4 Chipset para placas bases

5 Chipsets para dispositivos móviles

6 Soporte de software de código abierto

7 Véase también

8 Referencias

9 Enlaces externos
Historia[editar]
Jen-Hsun Huang, Chris Malachowsky, y Curtis Priem fundaron la compañía en enero
de 1993 y situaron la sede en California en abril de 1993.6
El nombre GeForce que utilizó para sus modelos gráficos fue creada mediante un concurso
en California para nombrar a la siguiente generación de tarjetas gráficas NV20.En 2013 Nvidia decidió licenciar su tecnología gráfica para que fabricantes de todo tipo de
dispositivos puedan aprovechar sus catálogo de patentes, siguiendo el mismo modelo
que ARM Holdings.7
Chips gráficos[editar]
VisionTek GeForce 256.
GeForce 6800 Ultra & GeForce 7950 GX2.
NVIDIA GeForce 8800 GTX.
Cuartel General de nVidia en Santa Clara, California.
GeForce GTX 480.

NV1

RIVA 128, RIVA 128ZX

VANTA LT, RIVA TNT, RIVA TNT 2
A partir de la serie GeForce, los chipsets se ocupan prácticamente de todo el proceso gráfico,
constituyendo lo que NVIDIA nombró GPU (Graphic Processing Unit - Unidad de proceso
gráfico).

GeForce Series

GeForce 256

GeForce 2: MX 200, MX 400, GTS, Pro, Ti y Ultra.

GeForce 3: Ti 200 y Ti 500.

GeForce 4: MX 420, MX 440, MX 460, Ti 4200, Ti 4400, Ti 4600 y Ti 4800.

GeForce FX (5): (DirectX 8.0, 8.1 o últimamente 9.0b por hardware) compuesta por
los modelos FX 5950 Ultra, FX 5900, FX 5800, FX 5700, FX 5600, FX 5500, FX 5300
y FX 5200.

GeForce 6: (DirectX 9.0c por hardware) compuesta por los modelos 6800 Ultra, 6800
GT, 6800, 6600 GT, 6600, 6500, 6200, 6150 y 6100 (AGP).

GeForce 7: (DirectX 9.0c por hardware) compuesta por los modelos 7950 GX2, 7950
GT, 7900 GTX, 7900 GTO, 7900 GT, 7900 GS, 7800 GTX, 7800 GT, 7800 GS, 7600
GT, 7600 GS, 7300 GT, 7300 GS, 7300 LE, 7100 GS y 7025 GT.

GeForce 8: (DirectX 10.0 por hardware) compuesta por los modelos 8800 Ultra, 8800
GTX, 8800 GTS, 8800 GT, 8800 GS, 8600 GTS, 8600 GT, 8500 GT y 8400 GS.

GeForce 9: (DirectX 11.0 por hardware) compuesta por los modelos 9400 GTXS
Turbo Lee 3500GB Edicion Limitada. en Existencia: una a nivel mundial .

GeForce 200: (DirectX 10 y 10.1 por hardware) compuesta por los modelos GT 220,
GT 240, GTS 240, GTS 250, GTX 260, GTX 275, GTX 280, GTX 285 y GTX 295.

GeForce 300: (DirectX 10.1 por hardware y DirectX 11 por Software) Es la serie GT
200 pero mejorada, menor consumo, menos tamaño de fabricación (Menos de los 55
nanómetros de las GT 200).

GeForce 400: (DirectX 11.0 por hardware) Arquitectura de nombre en clave "Fermi",
compuesta temporalmente por los modelos GT 420, GT 430, GT 440, GTS 450, GTX
460, GTX 465, GTX 470 y GTX 480.

GeForce 500: GT 520,GTX 550 Ti, GTX 560, GTX 560 Ti, GTX 570, GTX 580 y GTX
590.

GeForce 600: GT 610, GT 620, GT 630, GT 640, GTX 650, GTX 650 Ti, GTX 650 Ti
BOOST, GTX 660, GTX 660 Ti, GTX 670, GTX 680 y GTX 690.

GeForce 700: GTX 750, GTX 750Ti8 , GTX 760, GTX 770, GTX 780, GTX 780 Ti y
GTX TITAN.
Chips gráficos para uso profesional y científico[editar]

Quadro

Tesla
Chipset para placas bases[editar]

nForce 6 Series

600

nForce 7 Series

730i

750i

780i

790i SLI

790i Ultra SLI

980a SLI Para AMD
(Release) http://www.nvidia.es/object/product_nforce_980a_sli_es.html
Chipsets para dispositivos móviles[editar]

NVIDIA GoForce - serie de procesadores gráficos creados especialmente para
dispositivos móviles (PDAs, Smartphones y teléfonos móviles). Incluyen la tecnología
nPower para un uso eficiente de energía.

GoForce 2150 – Soporta teléfonos móviles con cámara de hasta 1,3 megapíxeles,
aceleración gráfica en 2D.

GoForce 3000 – Versión de bajo coste de la GoForce 4000 con algunas
características recortadas.

GoForce 4000 – Soporte de cámara de hasta 3,0 megapíxeles con grabación y
reproducción de vídeos en MPEG-4/H.263.

GoForce 4500 – Aceleración de vídeo en 2D y 3D con pixel shaders programable y
geometría

GoForce 4800 – Soporte de cámara hasta 3,0 megapíxeles con aceleración de vídeo
en 2D y 3D con píxel shader programable.

GoForce 6100 – Soporte de cámara hasta 10 megapíxeles, aceleración en 2D y 3D, y
codec H.264.

NVIDIA Tegra – es un system on a chip para dispositivos móviles
como smartphones, tablets, asistentes digitales personales, dispositivos móviles y de
Internet. Tegra integra la arquitectura de
procesadores ARM, GPU, northbridge, southbridge, y controlador de memoria en un solo
paquete. La serie enfatiza el consumo de baja potencia y alto rendimiento para la
reproducción de audio y video.
Soporte de software de código abierto[editar]
Nvidia no publica la documentación de su hardware, en su lugar, Nvidia provee sus propios
drivers binarios para X.Org y una delgada librería de código abierto para el interfaz entre los
núcleos de Linux, FreeBSD o Solaris y su software propietario. Nvidia también proveía, pero
dejó de dar soporte, de un driver ofuscado de código abierto que solo soporta aceleración 2D.9
La naturaleza propietaria de los drivers de Nvidia ha generado mucha insatisfacción dentro de
la comunidad de software libre. Linus