Download Tipos antiguos de tarjetas gráficas[editar]
Document related concepts
no text concepts found
Transcript
Empezaremos por definir el Hardware: corresponde a todas las partes tangibles de una computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Español lo define como «Conjunto de los componentes que integran la parte material de una computadora». El término, aunque es lo más común, no solamente se aplica a una computadora tal como se la conoce, ya que, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia también poseen hardware (y software). Después de haber definido que es Hardware, empezaremos con la teoría de lo que es Hardware Gráfico: El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes disponen de su propia memoria y unidad de procesamiento, esta última llamada unidad de procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es realizar los cálculos asociados a operaciones gráficas, fundamentalmente en coma flotante, liberando así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que éste pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de vídeo con aceleradores por hardware, era el procesador principal el encargado de construir la imagen mientras la sección de vídeo (sea tarjeta o de la placa base) era simplemente un traductor de las señales binarias a las señales requeridas por el monitor; y buena parte de la memoria principal (RAM) de la computadora también era utilizada para estos fines. Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria dedicada, utilizando para su función la memoria principal del sistema. La tendencia en los últimos años es integrar los sistemas gráficos dentro del propio procesador central. Los procesadores gráficos integrados (IGP) generalmente son de un rendimiento y consumo notablemente más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir las necesidades de la mayoría de los usuarios de un PC. Tarjeta gráfica Tarjeta Gráfica PCI-Express Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos oadaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos. Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG21 y MPEG-4 o incluso conectoresFirewire, de ratón, lápiz óptico o joystick. Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii U, la PlayStation 4 y la Xbox One. Índice [ocultar] 1 Historia 2 Componentes o 2.1 GPU o 2.2 Memoria gráfica de acceso aleatorio o 2.3 RAMDAC 2.3.1 Espacio que ocupan las texturas almacenadas o 2.4 Salidas o 2.5 Interfaces con la placa base o 2.6 Dispositivos refrigerantes o 2.7 Alimentación 3 Tipos antiguos de tarjetas gráficas o 3.1 Tarjeta MDA o 3.2 Tarjeta CGA o 3.3 Tarjeta HGC 4 Diseñadores, Fabricantes y ensambladores 5 API para gráficos 6 Efectos gráficos 7 Errores comunes 8 Véase también 9 Referencias 10 Enlaces externos Historia[editar] PCI S3 ViRGE IBM XGA-2 MCA Apple Display Card 24AC NuBus Cirrus Logic VESA AVIEW2E EISA EGA Paradise Bus ISA La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video. El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328). Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia de los Apple IIpopularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.2 A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.3 4 5 6 Año Modo texto Modo gráficos Colores Memoria MDA 1981 80*25 - 1 4 KiB CGA 1981 80*25 640*200 4 16 KiB HGC 1982 80*25 720*348 1 64 KiB EGA 1984 80*25 640*350 16 256 KiB IBM 8514 1987 80*25 1024*768 256 - MCGA 1987 80*25 320*200 256 - VGA 1987 720*400 640*480 256 256 KiB SVGA 1989 80*25 1024*768 256 1 MiB XGA 1990 80*25 1024*768 65K 2 MiB VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024 x 768 pixels a 256 colores. La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC. La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx)7 con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4. La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU. En 2006 y en adelante, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el liderazgo del mercado8 con sus series de chips gráficos GeForce yRadeon, respectivamente. Componentes[editar] Una unidad de procesamiento gráfico. GPU[editar] La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como laCPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta gráfica, así como la principal determinante del rendimiento. Tres de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en la actualidad oscila entre 825 MHz en las tarjetas de gama baja y 1200 MHz, e incluso más, en las de gama alta, el número de procesadores shaders y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles. Elementos generales de una GPU: Shaders: Es elemento más notable de potencia de una GPU, estos shaders unificados reciben el nombre de núcleos CUDA en el caso de nvidia y Procesadores Stream en el caso de AMD. Son una evolución natural de los antiguos pixel shader (encargados de la rasterización de texturas) y vertex shader (encargados de la geometría de los objetos), los cuales anteriormente actuaban de forma independiente. Los shaders unificados son capaces de actuar tanto de vertex shader como de pixel shader según la demanda, aparecieron en el 2007 con los chips G90 de nvidia (Series 8000) y los chips R600 para AMD (Series HD 2000), antigua ATi, incrementando la potencia drásticamente respecto a sus familias anteriores ROP: Se encargan de representar los datos procesados por la GPU en la pantalla, además también es el encargado de los filtros como Antialiasing. Memoria gráfica de acceso aleatorio[editar] Son chips de memoria que almacenan y transportan información entre sí, no son determinantes en el rendimiento máximo de la tarjeta gráfica, pero bien unas especificaciones reducidas pueden limitar la potencia de la GPU. Existen de dos tipos, Dedicada cuando, la tarjeta gráfica o la GPU dispone exclusivamente para sí esas memorias, ésta manera es la más eficiente y la que mejores resultados da; y compartida cuando se utiliza memoria en detrimento de la memoria RAM, ésta memoria es mucho más lenta que la dedicada y por tanto su rendimiento es menor, es recurrente en campañas de márketing con mensajes tipo Tarjeta gráfica de "Hasta ~ MB" para engañar al consumidor haciéndole creer que la potencia de esa tarjeta gráfica reside en su cantidad de memoria. Las características de memoria gráfica de una tarjeta gráfica se expresan en 3 características: Capacidad: La capacidad de la memoria determina el número máximo de datos y texturas procesadas, una capacidad insuficiente se traduce en un retardo a espera de que se vacíen esos datos. Sin embargo es un valor muy sobrevalorado como estrategia recurrente de márketing para engañar al consumidor, tratando de hacer creer que el rendimiento de una tarjeta gráfica se mide por la capacidad de su memoria. Interfaz de Memoria: También denominado Bus de datos, es la multiplicación resultante del de ancho de bits de cada chip por su número de unidades. Es una característica importante y determinante, junto a la velocidad de la memoria, a la cantidad de datos que puede transferir en un tiempo determinado, denominado ancho de banda. Una analogía al ancho de banda se podría asociar al ancho de una autopista o carriles y al número de vehículos que podrían circular a la vez. La interfaz de memoria se mide en bits. Velocidad de Memoria: Es la velocidad a la que las memorias pueden transportar los datos procesados, por lo que es complemento a la interfaz de memoria para determinar el ancho de banda total de datos en un tiempo determinado. Continuando la analogía de la circulación de los vehículos de la autopista, la velocidad de memoria se traduciría en la velocidad máxima de circulación de los vehículos, dando resultado a un mayor transporte de mercancía en un mismo periodo de tiempo. La velocidad de las memorias se mide en Hertzios (su frecuencia efectiva) y se van diseñando tecnologías con más velocidad, se destacan las adjuntas en la siguiente tabla: Tecnología Frecuencia efectiva (MHz) Ancho de banda (GB/s) GDDR 166 - 950 1,2 - 30,4 GDDR2 533 - 1000 8,5 - 16 GDDR3 700 - 1700 5,6 - 54,4 GDDR4 1600 - 1800 64 - 86,4 GDDR5 3200 - 7000 24 - 448 Ancho de banda: Es la tasa de datos que pueden transportarse en una unidad de tiempo. Un ancho de banda insuficiente se traduce en un importante limitador de potencia de la GPU. Habitualmente se mide en "Gigabytes por segundo" (GB/s). Su fórmula general es el cociente del producto de la interfaz de memoria (expresada en bits) por la frecuencia efectiva de las memorias (expresada en Gigahertzios), entre 8 para convertir bits a bytes. Por ejemplo, tenemos una tarjeta gráfica con 256 bits de interfaz de memoria y 4200 MHz de frecuencia efectiva y necesitamos hallar su ancho de banda: Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en losgráficos 3D. RAMDAC[editar] El RAMDAC es un conversor de señal digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, y nunca inferior a 60).9 Dada la creciente popularidad de los monitores de señal digital, el RAMDAC está quedando obsoleto, puesto que no es necesaria la conversión analógica si bien es cierto que muchos conservan conexión VGA por compatibilidad. Espacio que ocupan las texturas almacenadas[editar] El espacio que ocupa una imagen representada en el monitor viene dada en función de su resolución y su profundidad de color, es decir, una imagen sin comprimir en formato estándar Full HD con 1920x1080 píxeles y 32 bits de profundidad de color ocuparía 66.355.200 bits, es decir, 8,294 MiB Salidas[editar] Salidas HDMI, D-Sub 15 y DVI de una tarjeta gráfica Salidas SVGA, S-Video y DVI de una tarjeta gráfica Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son: SVGA/Dsub-15: Estándar analógico de los años 1990; diseñado para dispositivosCRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor. Se conecta mediante pines. Su utilización continúa muy extendida a día de hoy, aunque claramente muestra una reducción frente al DVI en los últimos años. DVI: Sustituto del anterior, pero digital, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales o proyectores. Se conecta mediante pines. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo. Cada vez más adoptado, aunque compite con el HDMI, pues el DVI no es capaz de transmitir audio. HDMI: Tecnología propietaria transmisora de audio y vídeo digital de alta definición cifrado sin compresión en un mismo cable. Se conecta mediante patillas de contacto. No está pensado inicialmente para monitores, sino para Televisiones, por ello no apaga la pantalla cuando deja de recibir señal y debe hacerse manualmente en caso de monitores. Otras no tan extendidas por un uso minoritatio, no implementadas u obsoletas son: DisplayPort: Puerto para tarjetas gráficas creado por VESA y rival del HDMI, transfiere vídeo a alta resolución y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos, también dispone de unas pestañas para anclar el conector impidiendo que se desconecte el cable accidentalmente. Cada vez más tarjetas gráficas van adoptando este sistema, aunque a día de hoy, sigue siendo su uso minoritario, existe una versión reducida de dicho conector llamada Mini DisplayPort, muy usada para tarjetas gráficas con multitud de salidas simultáneas, como pueden ser 5. S-Video: implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de vídeo NTSC/PAL, simplemente se está quedando obsoleto. Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA. Completamente en desuso para tarjetas gráficas, aunque sigue siendo usado para TV. Vídeo por componentes: Sistema analógico de transmisión de vídeo de alta definición, utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). Anteriormente usado en PCs y estaciones de trabajo de gama alta, ha quedador relegado a TV y videoconsolas. DA-15 conector RGB usado mayoritariamente en los antiguos Apple Macintosh. Completamente en desuso. Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas VGA). Completamente obsoleto Interfaces con la placa base[editar] Bus Anchura (bits) Frecuencia (MHz) Ancho de banda (MB/s) Puerto ISA XT 8 4,77 8 Paralelo ISA AT 16 8,33 16 Paralelo MCA 32 10 20 Paralelo EISA 32 8,33 32 Paralelo VESA 32 40 160 Paralelo PCI 32 - 64 33 - 100 132 - 800 Paralelo AGP 1x 32 66 264 Paralelo AGP 2x 32 133 528 Paralelo AGP 4x 32 266 1000 Paralelo AGP 8x 32 533 2000 Paralelo PCIe x1 1*32 25 / 50 100 / 200 Serie PCIe x4 1*32 25 / 50 400 / 800 Serie PCIe x8 1*32 25 / 50 800 / 1600 Serie PCIe x16 1*32 25 / 50 1600 / 3200 Serie PCIe x16 2.0 1*32 25 / 50 3200 / 6400 Serie En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base han sido, principalmente: Slot MSX : bus de 8 bits usado en los equipos MSX ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM PC. Zorro II usado en los Commodore Amiga 2000 y Commodore Amiga 1500. Zorro III usado en los Commodore Amiga 3000 y Commodore Amiga 4000 NuBus usado en los Apple Macintosh Processor Direct Slot usado en los Apple Macintosh MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores. EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores. VESA: extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una velocidad de 33 MHz. PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño de 32 bits y una velocidad de 33 MHz, permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los jumpers. PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz. AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz. PCIe: interfaz serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda de aquel. Sufre de constantes revisiones multiplicando su ancho de banda, ya existiendo la versión 3.0. No debe confundirse con PCI-X, versión de PCI. En la tabla adjunta10 11 se muestran las características más relevantes de algunas de dichas interfaces. Dispositivos refrigerantes[editar] Conjunto de disipador y ventilador. Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos: Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de un metal muy conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que a mayor demanda de refrigeración, mayor debe ser la superficie del disipador. Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador, siempre que nos refiramos al ventilador sólo, y produce ruido al tener partes móviles. Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la GPU extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto. Refrigeración Líquida: La refrigeración líquida o watercooling es una técnica de enfriamiento utilizando agua en vez de disipadores de calor y ventiladores (dentro del chasis), logrando así excelentes resultados en cuanto a temperaturas, y con enormes posibilidades en overclock. Se suele realizar con circuitos de agua estancos. El agua, y cualquier líquido refrigerante, tienen mayor capacidad térmica que el aire. A partir de este principio, la idea es extraer el calor generado por los componentes de la computadora usando como medio el agua, enfriarla una vez fuera del gabinete y luego reintroducirla. Alimentación[editar] Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, la insuficiencia energética se encuentra en la que puede proporcionar el puerto PCIe que sólo es capaz de aportar una potencia por sí sólo de 75 W.12 Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector)13 que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe. Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.14 Tipos antiguos de tarjetas gráficas[editar] Tarjeta MDA[editar] "Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KiB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ámbar o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración. Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PC no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto. Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su día) un puerto de comunicación para la impresora ¡Una asociación más que extraña a día de hoy! Tarjeta CGA[editar] "Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el carácter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KiB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto. Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow". Este problema era de carácter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve ("No snow"). Tarjeta HGC[editar] "Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KiB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KiB para el modo gráfico (1 bit x 720 x 348) y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en matrices de 14x9 puntos. D i s e ñ a d o r e s , Diseñadores de GPU Ensambladores de Tarjetas F a b r i c a n t es y ensambladores[editar] AMD nVIDIA GECUBE POINT OF VIEW CLUB3D CLUB3D POWERCOLOR EVGA MSI MSI XFX GAINWARD ASUS ASUS SAPPHIRE ZOTAC GIGABYTE GIGABYTE HIS ECS ELITEGROUP DIAMOND PNY - SPARKLE - GALAXY - PALIT En el mercado de las tarjetas gráficas hay que distinguir tres tipos de fabricantes: Diseñadores de GPU: diseñan y generan exclusivamente la GPU. Los dos más importantes son: AMD, anteriormente conocida como ATi nVIDIA GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados nVIDIA y AMD. Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado muy reducida. Todos ellos contratan y encargan a fabricantes ciertas unidades de chips a partir de un diseño. Fabricantes de GPU: Son quienes fabrican y suministran las unidades extraídas de las obleas de chips a los ensambladores. TSMC y Global Foundries son claros ejemplos. Ensambladores: integran las GPUs proporcionadas por los fabricantes con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el mismo chip tengan formas o conexiones diferentes o puedan dar ligeras diferencias de rendimientos, en especial tarjetas gráficas modificadas u overclokeadas de fábrica. En la tabla adjunta se muestra una relación de los dos diseñadores de chips y algunos de los ensambladores de tarjetas con los que trabajan. ATI Technologies ATI Technologies Inc. Tipo Subsidiaria NYSE: AMD Industria Semiconductores Fundación 20 de agosto de 1985 (ATI) Sede 1 Commerce Valley Drive East Markham, Ontario, Canadá Administración David E. Orton (Gerente) Productos Tarjetas gráficas,procesadores gráficos,placas bases, chipsets Matriz AMD Sitio web amd.com Reestructuración 25 de octubre de 2006 ATI Technologies Inc. fue una de las mayores empresas de hardware que diseñaba GPU y tarjetas gráficas, fue comprada por AMD en el año 2006 pero mantuvo su nombre para algunos productos hasta la salida de la serie Radeon HD 6000 en el 2010. Su mercado acaparó todo tipo de productos para el procesamiento gráfico y multimedia, tanto para computadoras personales, como para dispositivos portátiles, videoconsolas, teléfonos móviles y televisión digital. Su fundación data del 20 de agosto de 1985 (ATI). A la empresa se le ha conocido por varios nombres. Se fundó llamándose Array Technology Inc., pero durante los primeros 5 meses se le cambió aArray Technologies Inc., el 18 de diciembre de 1985 pasó a llamarse ATI Technologies Inc., y definitivamente pasó a ser parte de AMD el 25 de octubre de 2006. AMD tiene su sede en Markham, Ontario, en Canadá. Su plantilla laboral, de acuerdo con su sitio web corporativo, es de 3.300 empleados directos en el continente americano, Europa y Asia. Aunque la manufactura de los productos de AMD se realiza principalmente en Canadá y Taiwán. Índice [ocultar] 1 Historia de su fundación 2 Eventos 3 Productos o 3.1 Computadoras personales y plataformas de chipsets o 3.2 Soluciones multimedia y TV digital o 3.3 Soluciones gráficas para consolas o 3.4 Chipsets de mano o 3.5 Computación de alto rendimiento 4 Controladores 5 Véase también 6 Enlaces externos Historia de su fundación[editar] ATI fue fundado por Kwok Yuen Ho (nacido en China), Benny Lau y Lee Lau (ambos nacidos en Hong Kong). Ho, el hijo más pequeño de una humilde familia, tuvo que alternar los estudios con el trabajo en el campo. Se graduó de la carrera de Ingeniero Electrónico y comenzó una exitosa carrera pasando por las empresasPhilips Electronics y Wong's Electronics Co. Ltd donde adquirió una gran experiencia laboral, hasta que en 1984 emigra a Canadá. Kwok Yuen Ho no pudo seguir trabajando en empleos de su agrado como los que desarrolló en su periodo anterior en Asia, los primeros meses en Canadá fueron duros, pero tuvo la suerte de encontrarse con los también inmigrantes Benny Lau y Lee Lau con semejantes inquietudes que él, y fundaron Array Technology Inc.. Esta era una compañía gráfica pero el proyecto final era dedicarse a las computadoras pero para ello necesitaban acumular mucho capital por lo que tuvieron que empezar ahorrando con esta humilde empresa. Los inicios fueron muy difíciles, la plantilla apenas era de 6 personas incluyendo a los 3 fundadores y debido a no contar con ningún apoyo el capital se fue agotando hasta que pocos meses después de su fundación tuvieron que pedir un préstamo para poder seguir adelante. El mercado demandaba chips gráficos y ATI firmó un acuerdo con Commodore por el cual abastecería a esta compañía, y así fue como superaron el bache inicial, a finales de 1986 la compañía había multiplicado su capital y producía más de 7 millares de chips de gráficos en 2D por semana. Eventos[editar] En julio de 1987 ATI lanza al mercado la familia EGA Wonder y VESA Wonder superando en potencia gráfica a las tarjetas convencionales. En abril de 1989 ayuda a establecer un estándar VESA en el sector gráfico y en mayo de 1991 ATI crea la familia de productos Mach8 capaz de procesar gráficos independientemente de la Unidad Central de Procesamiento CPU. Al año siguiente ATI evoluciona su chipset y saca el Mach32 que integra la controladora y la aceleradora gráfica en un único chip. En noviembre de 1993, salió al mercado y comenzó a cotizar en la bolsa de Toronto. En agosto de 1994 ATI introdujo el Mach64 que es reconocido como el primer chipset de aceleración de video en movimiento, contaba con el apoyo de Graphics Xpression y Graphics Pro Turbo, tenía soporte de hardware para conversión del espacio de color YUV a RGB, y esto sirvió para proveer aceleración MPEG para PC. A finales de 1996 desarrolló el primer chip con aceleración gráfica 3D al que llamó Rage, ATI ya sobrepasaba el millón de chips gráficos vendidos, además ya disponía de varias sedes repartidas por Europa. Aunque no fue hasta 1997 con su chipset Rage II cuando se hizo con el mercado 3D. Este fue el primero en soportar Z-Buffer por hardware, compresión de texturas, filtrado bilineal, trilineal y un interesante número de modos de mezcla de texturas bajo Direct3D. En abril lanzo el 3D Rage Pro como uno de los primeras aceleradoras AGP y con gran rendimiento en DVD, poseía un gran diseño e incluso llegó a lanzarla en versiones con AGP 2X. Sin embargo, los drivers limitaban el rendimiento de la placa y perdió el primer puesto en el ranking de la aceleración gráfica. A finales de año la compañía adquiere Tseng Labs líder en el sector de gráficos 2D, incluyendo 40 nuevos ingenieros con los que en 1998 desarrolló el Rage 128 GL que soportaba OpenGL. El buen hacer de las memorias permitían a las Rage 128 GL correr extraordinariamente en 32-bit con 32 MB de RAM. Sin embargo en los 16-bit (lo más habitual en los juegos y aplicaciones en ese momento) este rendimiento no se consiguió, por lo que ATI no consiguió establecerse como líder en el mercado 3D, aunque poseía el mejor soporte para reproducción de DVD. En los primeros meses de 1999, Ho fue elegido como uno de los 25 mejores empresarios del momento por la revista Business Week Magazine, además ATI puso a sus Rage a AGP 4X y creó la primera tarjeta gráfica para portátiles con 8 MB de memoria integrada, la Rage Mobility. Para abril anuncio el nuevo Rage 128 Pro que mejoraba el chipset original incluyendo filtro anisótropo, un mejor motor de cálculo de triángulos y mayor velocidad de reloj, pero las mejoras no fueron suficientes y no llegó a competir con sus rivales. También ATI intentó desbancar a la competencia creando la Rage Fury Maxx que utilizaba dos procesadores trabajando en paralelo pero que no llegó a funcionar como se deseaba y además el costo era más elevado porque también necesitaba el doble de memoria de lo normal. En abril de 2000 ATI adquiere ArtX líder en el desarrollo de chips gráficos de alto rendimiento (uno de ellos el Flipper fue usado para la Nintendo GameCube) y además anuncia la llegada su sexta generación de chips los R100 y la primera placa que los aprovechó fue la Radeon 256. Sus características eran un gran ancho de banda, tecnología HyperZ (ahorraba el cálculo de los objetos no observables), memorias DDR (más rápidas), full hardware T&L (para el cálculo de las luces y las sombras) y Environment Mapped Bump Mapping, como también dos pixel pipelines capaces de usar tres texturas a la vez. ATI dio un salto cualitativo, mejoraron sus drivers Catalyst, su rendimiento en resoluciones de 1024x768 y superiores era sorprendente y volvía a liderar el sector. El dominio duró poco ya que los drivers de la competencia sacaban más provecho a sus productos pero las ventajas en reproducción de MPEG hizo que muchos usuarios optaran por las Radeon, que con el lanzamiento de las Allin-Wonder Radeon proveía a los usuarios todo lo necesario que una placa de video pueda ofrecer. En 2001 la compañía se dedica a lanzar sus Radeon Mobility para portátiles y las Radeon FireGL para estaciones de trabajo que necesitaran mucha potencia gráfica (tras la compra del departamento de gráficas profesionales FireGL a Diamond Multimedia ese mismo año). Además comienza una época de constante evolución y mejoría de sus Radeon y su chipset R100 (utilizado en las Radeon 7000, 7200, 7500 y 7800GL) evoluciona al R200 (utilizado en las Radeon 8000, 8500, 9100 y 8800GL). En los años 2002 y 2003 anunció que fabricaría y desarrollaría el chip gráfico de la nueva consola de Microsoft la Xbox 360 y de la nueva consola de Nintendo, laWii (aunque en aquel momento el nombre del proyecto era Revolution). Además desarrolla el R300, que utilizará en la Radeon 9000, 9200, 9500, 9600, 9800 (la gama se hacía cada vez mayor para que el usuario pudiera elegir la más idónea en función del precio que estuviera dispuesto a pagar) y en la más aclamada de todas la 9700. Esta última culminó dos grandes años para ATI en el que la competencia nunca le hizo sombra en el top de las tarjetas aceleradoras. En 2004 surge un nuevo estándar de conexión a la placa base el PCI Express X16 (PCI-E), que dobla en velocidad al AGP 8X. A lo largo de este año y de los siguientes se han desarrollado el R400 y R480 con la gama de Radeon X300, X500, X600, X700, X800, X850 y con el R500 la gama de Radeon X1300, X1600, X1800 y X1900, esta última se ha llegado a mejorar en velocidades de reloj de la GPU y de la memoria hasta la X1950 XTX, que es de las más altas de las tarjetas gráficas de hoy en día. Fue la primera tarjeta que utilizó las nuevas memorias GDDR 4. En el 2005 Ati implanta junto a Microsoft la tarjeta gráfica ATI Xenos para la videoconsola XBOX 360. Está basada en el chip de la serie R500, con 500 MHz a 90 nm. Es la primera GPU en usar arquitectura de Shaders unificados. El 24 de julio de 2006, ATI fue comprada por el fabricante de procesadores AMD, en una operación que costó a esta última 5.400 millones de dólares. Actualmente, sus líneas de productos más conocidas son las tarjetas gráficas Radeon y ALL-IN-WONDER, esta última caracterizada por disponer de captura de vídeo y audio. Hacia septiembre de 2006 la serie ALL-IN-WONDER fue descontinuada. Paralelamente, otras tecnologías fueron incorporándose al muestrario de productos comoAvivo (para vídeo y contenidos en Alta Definición), añadidura de gestión HDCP (High Definition Digital Contents Protection), y como la capacitación y certificación de componentes aptos para Windows Vista, el también reciente por aquellas fechas, nuevo Sistema Operativo de Microsoft. AMD Markham en la antigua sede de ATI Technologies El 25 de octubre de 2006 ATI pasa a ser parte de AMD definitivamente. Hay que puntualizar que todas sus tarjetas gráficas incluyen el chip de sonido integrado, ya que otra marca del mismo ramo de hardware no lo monta en sus tarjetas gráficas. A mediados de noviembre de 2007 aparece la revisión RV670 de la serie del chip R600 fabricado en 55nm con 666 millones de transistores. Concretamente la tarjeta gráfica HD 3870 (512 MB, GDDR 4) trabaja a unos 775 MHz de frecuencia en Núcleo y 2.25 Ghz Memoria. Da soporte para las APIs DirectX10.1 y OpenGl 2.0. Incluye salida HDMI y puede ser configurada en formato CROSSFIREX: revolucionaria tecnología que permite usar dos o más tarjetas gráficas en el mismo equipo informático (con el significativo aumento de rendimento que implica), pero sin ser necesariamente las dos el mismo modelo. Simplemente deben ser compatibles con el uso de esta tecnología entre sí, y con una placa base capacitada para dicha función. "Mejor consultar el esquema de compatibilidad CROSSFIREX en la web AMD ATI". Cabe mencionar la también incipiente tecnología HYBRYD CROSSFIRE. 2008.Se produce la comercialización de la tarjeta HD 3870 X2 con doble GPU incorporada y soporteHDMI (High Definition Multimedia Interface). La cual prácticamente batió en casi todos los test al más poderoso lanzamiento que el rival hizo en su momento: Nvidia Geforce 8800 Ultra, según indicaron las comparativas diseminadas por las webs especializadas en hardware. Siendo también, como es habitual, más barata que su oponente. Agosto 2008. Llegó el reemplazo del anterior chip por el nuevo RV770 fabricado en 55 nm. Algunas tarjetas gráficas con este chip, de las series HD4870 montan memorias GDDR 5 y la HD4850 sigue llevando GDDR3. La máxima expresión es la HD 4870X2, también multinúcleo, cuyas comparativas en lugares especializados en hardware no dejan lugar a dudas: estamos ante la GRAN tarjeta gráfica del 2008. Noviembre 2008. Disponible en la web oficial de AMD ATI el "Kit de fans" que incluye distintos tapices de escritorio, logos, banners, fotos e iconos basados en el personaje de Ruby. También una serie de vídeos en los que Ruby protagoniza escenas de acción heroicas contra personajes como Óptico y Assasin. También se puede localizar y descargar material para fans de Rainbow 6 Las Vegas 2 donde destaca un espectacular salvapantallas de escritorio. Todo el material mencionado es completamente gratuito. Diciembre 2008. Llegan noticias de AlienWare M17, el primer portátil que incorpora dos tarjetas gráficas en configuración CROSSFIREX. El Chip RV770 a esta fecha ha vendido alrededor de dos millones de unidades gráficas en todo el mundo. Mientras, los de Sunnyvale (California), están inmersos en el desarrollo de ATI STREAM, una iniciativa tanto en software como hardware para aprovechar ciertas aplicaciones que requieran una elevada potencia de cálculo y que se beneficiarán directamente de la capacidad de procesamiento de las GPUs a partir de la serie HD 4000. Se prevé que irán incluidas en el driver ATI CATALYST 8.12, en principio, seria sólo para las gráficas de serie HD 4000extendiéndose en todos los modelos superiores y soportados en todas los drivers posteriores. Unos meses después, ATI saca la HD 4770, la primera GPU fabricada 40nm que existe. Septiembre 2009 Llegan las Radeon (GPUs RV800) a 40nm nombre en código Cypress, y nombres comerciales HD 5870 y HD 5850, con 1600 SP y GDDR5 a 4600 MHZ. Unas semanas después llegarían las sustitutas en rendimiento de las HD 4800 series, de nombre en clave Juniper, con nombres comerciales 5770 y 5750. Noviembre 2009 Llega la tarjeta HD 5970, formada por 2 GPUs RV870 obteniendo una clara corona de rendimiento en ese momento, ya que nVidia en dicho momento, se retrasaría en sacar sus nuevas GPU's, "Fermi" Otoño 2010 AMD lanza al mercado la serie HD 6000 a 40 nm de nombre en clave Southern Islands, un puente entre la arquitectura anterior y la posterior, que renovará totalmente arquitectura desde la serie HD 3000. De paso, AMD elimina totalmente el nombre de ATi para pasar a ser AMD en todos sus productos. Productos[editar] Además del desarrollo de GPUs de Gama Alta (originalmente llamada por ATI como VPU, unidad de procesamiento visual) para PC, ATI también diseña versiones integradas en portátiles (Mobility Radeon), PDA y teléfonos móviles (Imageon), placas base integradas (Radeon IGP), en Televisión Digital las STB (Set-top boxes, Xilleon) y otros. ATI promueve algunos de sus productos con el personaje ficticio femenino "Ruby", una "mercenaria por contrato." [13] Los videos de Animación por computadora donde Ruby aparece en misiones son producidos por RhinoFX (siendo francotirador, saboteador, hacker, etc) los cuales son mostrados en grandes eventos de tecnología como CeBIT y CES. Chipsets gráficos para computadoras Soluciones Gráficas - Serie de 8-bits con tarjetas ISA MDA, Hércules y compatibilidad CGA . Las versiones posteriores añadieron soporte EGA. EGA / VGA Wonder - adaptadores de pantalla IBM "compatible con EGA/VGA" (1987) Serie Mach - ATI presentó el primer "Acelerador de Windows" GUI 2D . Con la evolución de la serie, la aceleración GUI mejoró espectacularmente y apareció prontamente la aceleración de video. Serie Rage - Primeros chips de ATI en aceleración 2D y 3D. La serie evolucionó de una rudimentaria aceleración 3D con 2D GUI y capacidad MPEG-1, a un altamente competitivo acelerador Direct3D 6 con el entonces "mejor en su clase" en aceleración DVD (MPEG2). Los distintos chips fueron muy populares entre los fabricantes de equipos originales (OEMs) de la época. La Rage II se utilizó en la primera tarjeta de vídeo multifuncional la ATI All-In-Wonder, y en las más avanzadas series All-In-Wonder basadas en GPUs Rage que le siguieron. (1995-2004) Rage Mobility - Diseñado para su uso en entornos de baja potencia, como las notebooks. Estos chips son funcionalmente similares a sus contrapartes de escritorio, pero con adiciones como la avanzada gestión de la energía, interfaz LCD, y funcionalidad con dos monitores . Radeon Serie - Lanzado en 2000, la línea Radeon de ATI es la marca para el público en general de tarjetas aceleradoras de 3D . El original Radeon DDR de ATI fue la primera aceleradora 3D en DirectX 7, fue su primer motor gráfico que soportaba Hardware T&L. ATI a menudo produjo versiones «Pro» con mayores velocidades de reloj y, a veces, una versión extrema "XT", e incluso más recientemente 'XT Platinum Edition PE) "y versiones " XTX ". La serie Radeon fue la base para muchas placas ATI All-In-Wonder. Mobility Radeon - Una serie de versiones con poder optimizado de chips gráficos Radeon para su uso en ordenadores portátiles. Introdujeron innovaciones tales como los chips de módulos RAM, aceleración DVD (MPEG2), sockets para GPU en notebooks, y "PowerPlay" tecnología de gestión de energía. ATI CrossFire - Esta tecnología es la respuesta de ATI a la la plataforma SLI de NVIDIA . Que permite, mediante el uso de una tarjeta de vídeo secundaria y una placa madre con doble PCI-E basada en un chipset compatible con Crossfire de ATI, la capacidad de combinar el poder de las dos tarjetas de video para aumentar el rendimiento a través de una variedad de diferentes opciones de renderizado. Hay una opción adicional para tarjetas de vídeo PCI-E de conectar en la tercer ranura PCI-E una tarjeta para juegos de física al azar, u otra opción de hacer azar de la física en la segunda tarjeta de vídeo [14]. FireGL - Lanzado en 2001, tras la adquisición por ATI de FireGL Graphics de Diamond Multimedia. Lanzó tarjeta de vídeos para Workstations CAD / CAM, basadas en la serie Radeon. FireMV - Para workstations, con multi-vision, una tecnología necesaria para mostra pantallas múltiples en estaciones de trabajo con sólo aceleración 2D, generalmente sobre la base de la gama baja de productos de la serie Radeon. Advanced Micro Devices, Inc. (NYSE: AMD) o AMD es una compañía estadounidense de semiconductoresestablecida en Sunnyvale, California, que desarrolla procesadores de cómputo y productos tecnológicos relacionados para el mercado de consumo. Sus productos principales incluyen microprocesadores, chipsets paraplacas base, circuitos integrados auxiliares, procesadores embebidos y procesadores gráficos para servidores,estaciones de trabajo, computadores personales y aplicaciones para sistemas embedidos. AMD es el segundo proveedor de microprocesadores basados en la arquitectura x86 y también uno de los más grandes fabricantes de unidades de procesamiento gráfico. También posee un 8,6% de Spansion, un proveedor dememoria flash no volátil.)10 En 2011, AMD se ubicó en el lugar 11 en la lista de fabricantes de semiconductores en términos de ingresos.11 Índice [ocultar] 1 Historia Corporativa 2 Historia de lanzamientos al mercado o 2.1 8086, Am286, Am386, Am486, Am5x86 o 2.2 K5, K6, Athlon, Duron y Sempron o 2.3 AMD64 / K8 2.3.1 Dual-core Athlon 64 X2 2.3.2 Turion 64 o 2.4 Phenom (K10) o 2.5 Athlon II y Phenom II o 2.6 Fusion, Bobcat, Bulldozer y Vishera o 2.7 Chips basados en arquitectura ARM 3 Otras plataformas y tecnologías o 3.1 Iniciativa 50X15 o 3.2 AMD / ATI o 3.3 Sistemas integrados 3.3.1 Geode 4 Referencias 5 Véase también 6 Enlaces externos AMD Historia Corporativa[editar] Sede de AMD en Sunnyvale, California AMD Markham en Canadá, antiguamente sede de ATI LEED de AMD campo Lone Star enAustin, Texas Advanced Micro Devices se fundó el 1 de mayo de 1969 por un grupo de ejecutivos de Fairchild Semiconductor, incluidos Jerry Sanders III, Edwin Turney, John Carey, Sven Simonsen, Jack Gifford y 3 miembros del equipo deGifford, Frank Botte, Jim Giles y Larry Stenger. La compañía empezó a producir circuitos integrados lógicos, luego entró en el negocio de las memorias RAM en 1975. Ese mismo año hizo una copia de microprocesador Intel 8080mediante técnicas de ingeniería inversa , al cual nombro como AMD 9080. Durante este período, AMD también diseñó y produjo una serie de procesadores Bit slicing (Am2901, Am29116, Am293xx) que fueron usados en varios diseños de microcomputadores. Durante ese tiempo, AMD intentó cambiar la percepción que se tenía del RISC con sus procesadores AMD 29k y trató de diversificarlo introduciendo unidades gráficas y de video así como memorias EPROM. Esto tuvo su éxito a mediados de 1980 con el AMD7910 y AMD7911, unas de las primeras unidades que soportaban varios estándares tanto Bell como CCITT en 1200 baudios half duplex o 300/300 full duplex. El AMD 29k sobrevivió como un procesador embebido y AMD spin-off Spansion pasó a ser líder en la producción de Memorias flash. AMD decide cambiar de rumbo y concentrarse únicamente en los microprocesadores compatibles con Intel, colocándolo directamente en competencia con este y las memorias flash destinarlas a mercados secundarios. AMD anuncia la adquisición de ATI Technologies el 24 de julio de 2006. AMD paga 4,3 mil millones de dólares en efectivo y 58 millones en acciones por un total de 5,4 mil millones. La adquisición se completó el 25 de octubre de 2006 y ahora ATI es parte de AMD.12 En diciembre de 2006 se comunicó a AMD y a su principal competidor, Nvidia, que podrían estar violando leyes antimonopólicas incluyendo la capacidad de fijar precios.13 En octubre de 2008, AMD anunció planes para escindir las operaciones de fabricación en forma de una empresa conjunta multimillonaria con la tecnoloógica Advanced Investment Co., una compañía de inversiones formada por el gobierno de Abu Dhabi. La nueva empresa se llama GlobalFoundries Inc.. Esta alianza permitiría a AMD centrarse únicamente en el diseño de chips.14 La escisión estuvo acompañada por la pérdida de cerca de 1.000 puestos de trabajo, o alrededor del 10% de la fuerza laboral mundial de AMD.15 En agosto de 2011, AMD anunció que el ex ejecutivo de Lenovo Rory Read se uniría a la compañía como director general, después de Dirk Meyer.16 AMD anunció en noviembre de 2011 los planes para despedir a más del 10% (1.400) de los empleados de todas las divisiones en todo el mundo. Esta acción sería completada en Q1 2012 con la mayoría de los despidos efectuados antes de la Navidad de 2011.15 AMD anunció en octubre de 2012 que tiene previsto despedir un 15% adicional de su fuerza de trabajo con una fecha de vigencia indeterminada para reducir los costos de cara a la disminución de los ingresos por ventas.17 AMD adquirió el fabricante de servidores de bajo consumo SeaMicro a principios de 2012 como parte de una estrategia para recuperar la cuota de mercado perdida en el mercado de los chips de servidor.18 Historia de lanzamientos al mercado[editar] 8086, Am286, Am386, Am486, Am5x86[editar] Artículos principales: Am286, Am386, Am486 y Am5x86. En 1982 AMD firmó un contrato con Intel, convirtiéndose en otro fabricante licenciatario de procesadores 8086 y 8088, esto porque IBM quería usar Intel 8088 en sus IBM PC, pero las políticas de IBM de la época exigían al menos dos proveedores para sus chips. AMD produjo después, bajo el mismo acuerdo, procesadores80286, o 286, pero Intel canceló el contrato en 1986, rehusándose a revelar detalles técnicos del i386. La creciente popularidad del mercado de los clones de PC significaba que Intel podría producir CPUs según sus propios términos y no según los de IBM. AMD apeló esa decisión y posteriormente ganó bajo arbitraje judicial. Comenzó un largo proceso judicial que solo acabaría en 1991, cuando la Suprema Corte deCalifornia finalmente falló a favor de AMD, y forzó a Intel a pagar más de 1000 millones de dólares en compensación por violación de contrato. Disputas legales subsiguientes se centraron en si AMD tenía o no derechos legales de usar derivados del microcódigo de Intel. Los fallos fueron favoreciendo a las dos partes. En vista de la incertidumbre, AMD se vio forzado a desarrollar versiones "en limpio" del código de Intel. Así, mientras un equipo de ingeniería describía las funciones del código, un segundo equipo sin acceso al código original debía desarrollar microcódigo que realizara las mismas funciones. Llegado este punto, Jerry Sanders bien pudo retirarse del mercado. Pero en 1991 AMD lanza el Am386, su clon del procesador Intel 80386. En menos de un año AMD vendió un millón de unidades. El 386DX-40 de AMD fue muy popular entre los pequeños fabricantes independientes. Luego, en 1993 llegó Am486 que, al igual que su antecesor se vendió a un precio significativamente menor que las versiones de Intel. Am486 fue utilizado en numerosos equipos OEM e incluso por Compaqprobando su popularidad. Pero nuevamente se trataba de un clon de la tecnología Intel; y a medida que los ciclos de la industria de las PC se acortaban, seguir clonando productos de Intel era una estrategia cada vez menos viable dado que AMD siempre estaría tras Intel. El 30 de diciembre de 1994, la Suprema Corte de California finalmente negó a AMD el derecho de usar microcódigo de i386. Posteriormente, un acuerdo entre las dos empresas (cuyos términos aun siguen en el mayor de los secretos) permitió a AMD producir y vender microprocesadores con microcódigo de Intel 286, 386, y 486. El acuerdo parece haber permitido algunos licenciamientos cruzados de patentes, permitiendo a ambas partes el uso de innovaciones tecnológicas sin pago de derechos. Más allá de los detalles concretos del acuerdo, desde entonces no hubo acciones legales significativas entre las empresas. K5, K6, Athlon, Duron y Sempron[editar] Artículos principales: AMD K5, AMD K6, Athlon, Duron y Sempron. El primer procesador x86 completamente fabricado por AMD fue el K5 lanzado en 1996. La "K" es una referencia a la kriptonita, que según de la tradición del cómic, es la única sustancia, que puede perjudicar a Superman, una clara referencia a Intel, que dominaba en el mercado en ese momento, como "Superman". El número "5" se refiere a la quinta generación de procesadores, en la cual Intel introdujo el nombre Pentium debido a que la Oficina de Patentes de los EE.UU. dictaminó que un sólo número no podía ser registrado como marca. En 1996, AMD adquirió NexGen principalmente por los derechos de la serie NX de procesadores compatibles con x86. AMD dio al equipo de diseño de NexGen un edificio propio, los dejó solos, y les dio tiempo y dinero para reelaborar el Nx686. El resultado fue el procesador K6, introducido en 1997. Aunque el K6 se basó en el Socket 7, algunas versiones como el K6-3/450 fueron más rápidas que el Pentium II de Intel (procesador de sexta generación). El K7 es el procesador de séptima generación x86 de AMD, haciendo su debut el 23 de junio de 1999, bajo la marca Athlon. A diferencia de los procesadores anteriores de AMD, no podría ser utilizado en las mismas tarjetas madre, debido a problemas de licencia sobre el Slot 1 de Intel, AMD decide entonces usar como nombre la letra "A" que hace referencia al bus del procesador Alpha. Duron fue una versión limitada y de menor costo del Athlon (64KB en lugar de 256KB L2 de caché) con un socket de 462-pin PGA (Socket A) o soldado directamente a la tarjeta madre. Sempron fue lanzado como un procesador Athlon XP de menor costo sustituyendo al Duron en el socket "A" PGA, desde entonces se ha mantenido y actualizado esta línea hasta el socket AM3. El 9 de octubre de 2001, fue lanzado el Athlon XP, seguido por el Athlon XP con 512 KB de caché L2 el 10 de febrero de 2003. AMD64 / K8[editar] Artículos principales: Athlon 64 y Opteron. K8 es una gran revisión de la arquitectura K7, cuya mejora más notable es el agregado de extensiones de 64 bit sobre el conjunto de instrucciones x86. Esto es importante para AMD puesto que marca un intento de definir el estándar x86 e imponerse, en vez de seguir los estándares marcados por Intel. Y al respecto, AMD ha tenido éxito. La historia ha dado un giro y Microsoft adoptó el conjunto de instrucciones de AMD, dejando a Intel el trabajo de ingeniería inversa de las especificaciones de AMD (EM64T). Otras características notables de K8 son el aumento de los registros de propósito general (de 8 a 16 registros), la arquitecturaDirect Connect Architecture y el uso de HyperTransport. El proyecto AMD64 puede ser la culminación de la visionaria estrategia de Jerry Sanders, cuya meta corporativa para AMD fue la de convertirla en una poderosa empresa de investigación por derecho propio, y no sólo una fábrica de clones de bajo precio, con estrechos márgenes de ganancia. AMD Opteron es la versión para servidores corporativos de K8; y aunque fue concebida por la compañía para competir contra la línea IA-64 Itanium de Intel, dados los bajos volúmenes de venta y producción de esta última, compite actualmente con la línea Xeon de Intel. Dual-core Athlon 64 X2[editar] Artículo principal: Athlon 64 X2 Turion 64[editar] Artículo principal: Turion 64 El procesador AMD Turion 64 es una versión de bajo consumo del procesador AMD Athlon 64 destinada a los ordenadores portátiles, que salieron a competir contra la tecnología Centrino de Intel. Se presentan en dos series, ML con un consumo máximo de 35 W y MT con un consumo de 25 W, frente a los 27 W del Intel Pentium M. NVIDIA (Redirigido desde «Nvidia») Nvidia Corporation Tipo Multinacional (NASDAQ:NVDA) Industria Semiconductores Fundación 1993 Sede Santa Clara, California,Estados Unidos Administración Jen-Hsun Huang Productos Procesadores gráficos, placas base, chipsets Ingresos 3.052,23 millones de €1(2012) Beneficio neto 346 millones de €2 (2012) Empleados 6.5403 (2008) Sitio web www.nvidia.com Nvidia Corporation (NASDAQ: NVDA) es una empresa multinacional especializada en el desarrollo de unidades de procesamiento gráfico y tecnologías de circuitos integrados para estaciones de trabajo, ordenadores personalesy dispositivos móviles. Con sede en Santa Clara, California,4 la compañía se ha convertido en uno de los principales proveedores de circuitos integrados (CI), como unidades de procesamiento gráfico GPU y conjuntos de chips usados en tarjetas de gráficos en videoconsolas y placas base de computadora personal. NVIDIA produce GPUs incluyendo la serie GeForce para videojuegos, la serie NVIDIA Quadro de diseño asistido por ordenador y la creación de contenido digital en las estaciones de trabajo, y la serie de circuitos integrados nForce para placas base. Los drivers de Nvidia son conocidos por las restricciones artificialmente impuestas, como limitar el número de monitores que se pueden usar al mismo tiempo.5 Índice [ocultar] 1 Historia 2 Chips gráficos 3 Chips gráficos para uso profesional y científico 4 Chipset para placas bases 5 Chipsets para dispositivos móviles 6 Soporte de software de código abierto 7 Véase también 8 Referencias 9 Enlaces externos Historia[editar] Jen-Hsun Huang, Chris Malachowsky, y Curtis Priem fundaron la compañía en enero de 1993 y situaron la sede en California en abril de 1993.6 El nombre GeForce que utilizó para sus modelos gráficos fue creada mediante un concurso en California para nombrar a la siguiente generación de tarjetas gráficas NV20.En 2013 Nvidia decidió licenciar su tecnología gráfica para que fabricantes de todo tipo de dispositivos puedan aprovechar sus catálogo de patentes, siguiendo el mismo modelo que ARM Holdings.7 Chips gráficos[editar] VisionTek GeForce 256. GeForce 6800 Ultra & GeForce 7950 GX2. NVIDIA GeForce 8800 GTX. Cuartel General de nVidia en Santa Clara, California. GeForce GTX 480. NV1 RIVA 128, RIVA 128ZX VANTA LT, RIVA TNT, RIVA TNT 2 A partir de la serie GeForce, los chipsets se ocupan prácticamente de todo el proceso gráfico, constituyendo lo que NVIDIA nombró GPU (Graphic Processing Unit - Unidad de proceso gráfico). GeForce Series GeForce 256 GeForce 2: MX 200, MX 400, GTS, Pro, Ti y Ultra. GeForce 3: Ti 200 y Ti 500. GeForce 4: MX 420, MX 440, MX 460, Ti 4200, Ti 4400, Ti 4600 y Ti 4800. GeForce FX (5): (DirectX 8.0, 8.1 o últimamente 9.0b por hardware) compuesta por los modelos FX 5950 Ultra, FX 5900, FX 5800, FX 5700, FX 5600, FX 5500, FX 5300 y FX 5200. GeForce 6: (DirectX 9.0c por hardware) compuesta por los modelos 6800 Ultra, 6800 GT, 6800, 6600 GT, 6600, 6500, 6200, 6150 y 6100 (AGP). GeForce 7: (DirectX 9.0c por hardware) compuesta por los modelos 7950 GX2, 7950 GT, 7900 GTX, 7900 GTO, 7900 GT, 7900 GS, 7800 GTX, 7800 GT, 7800 GS, 7600 GT, 7600 GS, 7300 GT, 7300 GS, 7300 LE, 7100 GS y 7025 GT. GeForce 8: (DirectX 10.0 por hardware) compuesta por los modelos 8800 Ultra, 8800 GTX, 8800 GTS, 8800 GT, 8800 GS, 8600 GTS, 8600 GT, 8500 GT y 8400 GS. GeForce 9: (DirectX 11.0 por hardware) compuesta por los modelos 9400 GTXS Turbo Lee 3500GB Edicion Limitada. en Existencia: una a nivel mundial . GeForce 200: (DirectX 10 y 10.1 por hardware) compuesta por los modelos GT 220, GT 240, GTS 240, GTS 250, GTX 260, GTX 275, GTX 280, GTX 285 y GTX 295. GeForce 300: (DirectX 10.1 por hardware y DirectX 11 por Software) Es la serie GT 200 pero mejorada, menor consumo, menos tamaño de fabricación (Menos de los 55 nanómetros de las GT 200). GeForce 400: (DirectX 11.0 por hardware) Arquitectura de nombre en clave "Fermi", compuesta temporalmente por los modelos GT 420, GT 430, GT 440, GTS 450, GTX 460, GTX 465, GTX 470 y GTX 480. GeForce 500: GT 520,GTX 550 Ti, GTX 560, GTX 560 Ti, GTX 570, GTX 580 y GTX 590. GeForce 600: GT 610, GT 620, GT 630, GT 640, GTX 650, GTX 650 Ti, GTX 650 Ti BOOST, GTX 660, GTX 660 Ti, GTX 670, GTX 680 y GTX 690. GeForce 700: GTX 750, GTX 750Ti8 , GTX 760, GTX 770, GTX 780, GTX 780 Ti y GTX TITAN. Chips gráficos para uso profesional y científico[editar] Quadro Tesla Chipset para placas bases[editar] nForce 6 Series 600 nForce 7 Series 730i 750i 780i 790i SLI 790i Ultra SLI 980a SLI Para AMD (Release) http://www.nvidia.es/object/product_nforce_980a_sli_es.html Chipsets para dispositivos móviles[editar] NVIDIA GoForce - serie de procesadores gráficos creados especialmente para dispositivos móviles (PDAs, Smartphones y teléfonos móviles). Incluyen la tecnología nPower para un uso eficiente de energía. GoForce 2150 – Soporta teléfonos móviles con cámara de hasta 1,3 megapíxeles, aceleración gráfica en 2D. GoForce 3000 – Versión de bajo coste de la GoForce 4000 con algunas características recortadas. GoForce 4000 – Soporte de cámara de hasta 3,0 megapíxeles con grabación y reproducción de vídeos en MPEG-4/H.263. GoForce 4500 – Aceleración de vídeo en 2D y 3D con pixel shaders programable y geometría GoForce 4800 – Soporte de cámara hasta 3,0 megapíxeles con aceleración de vídeo en 2D y 3D con píxel shader programable. GoForce 6100 – Soporte de cámara hasta 10 megapíxeles, aceleración en 2D y 3D, y codec H.264. NVIDIA Tegra – es un system on a chip para dispositivos móviles como smartphones, tablets, asistentes digitales personales, dispositivos móviles y de Internet. Tegra integra la arquitectura de procesadores ARM, GPU, northbridge, southbridge, y controlador de memoria en un solo paquete. La serie enfatiza el consumo de baja potencia y alto rendimiento para la reproducción de audio y video. Soporte de software de código abierto[editar] Nvidia no publica la documentación de su hardware, en su lugar, Nvidia provee sus propios drivers binarios para X.Org y una delgada librería de código abierto para el interfaz entre los núcleos de Linux, FreeBSD o Solaris y su software propietario. Nvidia también proveía, pero dejó de dar soporte, de un driver ofuscado de código abierto que solo soporta aceleración 2D.9 La naturaleza propietaria de los drivers de Nvidia ha generado mucha insatisfacción dentro de la comunidad de software libre. Linus