Download Microprocesadores para comunicaciones Actualización de Intel

Document related concepts
no text concepts found
Transcript
Microprocesadores para
comunicaciones
Actualización de Intel
Multi–cores
Autor: David Giner Rodríguez
Índice
1. Introducción
1.1. Ley de Moore
1.2. Problema con la disipación térmica
1.3. Solución de Intel
1.4. Roadmap seguido por Intel
2. Arquitectura
2.1. Planteamientos de Intel
2.1.1. Multi–núcleo ficticio
2.1.2. Multi–núcleo real
2.2. Pentium D
2.2.1. Smithfield
2.2.2. Presler
2.3. Intel Core Microarchitecture
2.3.1. Core 2 Duo
2.3.1.1. Conroe y Allendale
2.3.2. Core 2 Quad
2.3.2.1. Kentsfield
2.4. Penryn
2.4.1. Wolfdale
2.4.2. Yorkfield
2.5. Nehalem
2.5.1. Bloomfield / Lynnfield
2.6. Westmere
2.7. Sandy Bridge
2.8. Haswell
3. Prestaciones
3.1. SPEC
3.2. Tom’s Hardware
4. Futuro
5. Conclusiones
6. Referencias
3
3
5
6
6
7
8
8
8
8
8
9
9
9
9
9
9
10
10
10
11
12
13
14
14
16
16
17
24
25
27
2
1. Introducción
El objetivo de este trabajo consiste en intentar aportar información un
poco más detallada sobre los “cores” de “Intel”. Para ello se explicará en mayor
profundidad todos los aspectos tratados en la presentación, que básicamente
viene a ser el enfoque que ha realizado esta compañía del mercado para
procesadores de sobremesa en los últimos años.
Tratar de abarcar la totalidad de los procesadores de la compañía no
hubiera sido posible sin duplicar, o incluso triplicar la extensión del mismo. Hay
que indicar que el mercado de servidores y el de soluciones portátiles, aunque
empleen tecnologías similares al de sobremesa, tienen determinados aspectos
bastante diferentes que habría que comentar, y por tanto, se ha optado por
centrarse exclusivamente en el mercado de sobremesa.
1.1.
Ley de Moore
El punto de partida de la aproximación de “Intel” del mercado doméstico
de procesadores tiene toma como punto de partida la conocida Ley de Moore,
que ha marcado el desarrollo de los mismos casi desde su invención.
Gordon Moore, que después se convertiría en el co–fundador de “Intel
Corporation” en julio de 1968 junto a Robert Noyce, escribió un artículo en
“Electronics Magazine” el 19 de abril de 1965 en el que afirmaba lo siguiente:
“La complejidad de componente mínimo de gastos ha aumentado a una
tasa de aproximadamente dos por año… Ciertamente, en el corto plazo es de
esperar que este ritmo pueda continuar, si no incrementarse. A largo plazo, la
tasa de aumento es un poco más incierta, aunque no hay razón alguna para
pensar que no seguirá siendo casi constante durante al menos 10 años. Esto
significa que para 1975, el número de componentes por circuito integrado de
mínimo coste será de 65 000. Creo que ese gran circuito se puede construir en
una sola oblea.”
Hacer esta clase de comentario sobre lo mucho que iba avanzar la
tecnología en ese momento con cierto pragmatismo, por no decir locura. En
aquella época nadie podía saber que la tecnología avanzaría a un ritmo tan
espectacular durante tanto tiempo. Pero, lo que sabemos ahora es que solo era
solo el principio.
El propio Gordon Moore dijo en febrero de 2003 en la ISSCC
(International Solid-State Circuits Conference) respecto al cumplimiento de su
ley:
“Que siga cumpliéndose durante otra década es probablemente
sencillo… Ciertamente no hay límites para la creatividad.”
3
A día de hoy, puede decirse que los procesadores iban siguiendo
prácticamente a rajatabla la Ley de Moore en cuanto a su desarrollo.
Prácticamente cada 2 años o año y medio se duplicaba la densidad de
integración en un chip, o lo que es lo mismo, cada 2 años o año y medio se
duplicaba el número de transistores en los procesadores. Hoy en día, hay
diseños que superan los mil millones de transistores. Un ejemplo son los “Intel
Dual–Core Itanium 2 Processor”, que según afirma la compañía tiene más de 1
700 000 000 de transistores. Para corroborar la magnitud de este crecimiento,
cabe notar que el primer procesador de la compañía, el “Intel 4004”, tenía unos
2 300 transistores. Esto viene a ser que desde entonces, donde antes cabía 1
transistor, ahora caben 740 000.
Figura 1. Desarrollo de los procesadores de “Intel” en consonancia con la Ley de Moore
Esto quiere decir que, La Ley de Moore traducida a las prestaciones de
los procesadores venía a significar que las mismas se duplicaban cada 18
meses.
Como es obvio, esto también lleva consecuencias, como el aumento del
consumo de potencia, que es uno de los quebraderos de cabeza más
impotantes de los diseñadores de procesadores actuales.
4
Figura 2. Aumento del consumo con el tiempo
El aumento de consumo de potencia causó una serie de problemas, de
los cuales la disipación térmica era el más importante y peligroso. Resultado,
había que cambiar la dirección marcada prácticamente desde su creación, ya
no podía continuar aumentando de forma indefinida las frecuencias de reloj de
sus procesadores. Había que encontrar otra manera para aumentar las
prestaciones sin aumentar la frecuencia de reloj.
1.2.
Problema con la disipación térmica
De seguir incrementándose la disipación de calor en el chip en la misma
proporción que en el pasado, la tecnología se estancaría debido a este
contratiempo.
Figura 3. Disipación térmica en los procesadores
5
Como puede observarse en la gráfica sobre estas líneas, se llegarían a
alcanzar densidades de potencia similares a las que se encuentran en un
reactor nuclear o incluso en la tobera de un cohete. Obviamente, era inviable
seguir por el mismo camino, así que tenía que producirse un cambio de
tecnología.
1.3.
Solución de Intel
La idea de “Intel” para solucionar esta problemática fue la de dejar de
aumentar la frecuencia de reloj en un solo núcleo. La compañía se decantó por
una arquitectura multi–núcleo, lo que a su vez seguiría incrementando las
prestaciones de los procesadores. La ventaja es que de esta forma podría
controlarse el consumo. En vez de tener procesador con un solo núcleo de muy
alta frecuencia de reloj, montaba en un mismo procesador dos núcleos con un
reloj un poco menos rápido, pero que se traducía en un mejor rendimiento,
debido a la paralelización de las tareas.
1.4.
Roadmap seguido por Intel
A partir de entonces, desde que “Intel” abandonó la tradición de ir
aumentando la frecuencia de funcionamiento de sus procesadores, el roadmap
seguido por la compañía es el siguiente:
1. Lanzamiento comercial del procesador de doble núcleo a
mediados de 2005.
2. Llegada al mercado del procesador de cuádruple núcleo a finales
de 2006.
6
3. Lanzamiento del “pseudo–procesador” de ocho núcleos en el
primer trimestre de 2008, resultado de la combinación de dos
procesadores de cuádruple núcleo en un mismo sistema. Nombre
en clave Skulltrail.
4. Procesador cuádruple real, optimizando toda la estructura de
buses e interconexiones a finales de 2008.
2. Arquitectura
En este apartado se comentará en detalle las diferentes arquitecturas
propuestas por “Intel” para sus futuras creaciones.
Figura 4. Estimaciones de “Intel” en el lanzamiento de arquitecturas
Sobre estas líneas se muestran los planes de “Intel” a este respecto en
los años 2006 a 2010. Todo ello son estimaciones de la compañía, aunque
actualmente “Penryn” y “Nehalem” ya han llegado al mercado, y “Westmere” lo
hará este año sino hay retrasos.
7
2.1.
Planteamientos de Intel
Hay que distinguir entre los dos planteamientos propuestos “Intel”. Por
un lado está lo que se considerará como multi–núcleo “ficticio”, y por el otro, el
considerado multi–núcleo “real”. A continuación se explicará el porqué de estas
dos formas de nucleo, a pesar de que para “Intel” ambas sean equivalentes.
2.1.1.
Multi–núcleo ficticio
Es ésta una solución “barata” y sencilla para poder implementar la
arquitectura de multi–núcleo en los procesadores. “Intel” puso en práctica dos
planteamientos:
1. Varios núcleos, un solo dado. Un ejemplo es el “Pentium D”, que viene a
ser lo mismo que dos “Pentium 4” en un dado. El principal problema es
que el consumo se duplica.
2. Varios dados, un encapsulado. Por ejemplo, un “Core 2 Quad” son dos
“Core 2 Duo” en un encapsulado. Ellos lo llaman “MCM” (Multi–Chip
Module), o lo que es lo mismo, “chip multi–módulo”.
2.1.2.
Multi–núcleo real
La evolución de la anterior, que consiste en varios núcleos
independientes integrados en un solo dado, y dotándolo de una estructura
optimizada. Un ejemplo de esto es la arquitectura del procesador “Intel Core 2
Duo”. El consumo de potencia es menor y las interconexiones están
optimizadas.
2.2.
Pentium D
Esta arquitectura fue la primera propuesta para afrontar el necesario
cambio tecnológico debido a la problemática importante de la disipación
térmica en los chips. “Pentium D” no es más que una derivación de “Pentium
4”. Se integran varios núcleos en un solo dado.
2.2.1.
Smithfield
Primer procesador basado en “Pentium D”. No era más que dos núcleos
“Prescott” metidos en un dado. Su tecnología de fabricación era la misma, 90
nm. Comenzó su comercialización a mediados de 2005. Como es obvio, su
consumo era prácticamente el doble que el de los dos procesadores “Prescott”
por separado, llegando a los 130 W. Esta es la cifra que “Intel se ha marcado
como consumo máximo a lo que pueden llegar sus procesadores.
8
2.2.2.
Presler
Prácticamente lo mismo que “Smithfield”, con la diferencia de que la
tecnología avanzó hasta los 65 nm y contenía dos “Cedar–Mill”. Fue lanzado a
mediados de 2006. El consumo seguía rondando los 130 W.
2.3.
Intel Core Microarchitecture
El primer gran cambio vino con la introducción de “Intel Core
Microarchitecture”. Ésta fue una nueva arquitectura diseñada con la tecnología
de fabricación de 65 nm, a diferencia de “Pentium D”, que era una derivada de
la “Pentium 4”.
Podría decirse que existen dos variantes dentro de la misma. La familia
de procesadores “Core 2 Duo” y la familia “Core 2 Quad”.
2.3.1.
Core 2 Duo
Es una tecnología de doble núcleo real. Los procesadores que utilizan
esta variante de “Intel Core Microarchitecture” tienen dos núcleos
independientes integrados en una sola pieza de silicio. Con esto se optimiza el
consumo respecto a los “Pentium D” y se reduce el área ocupada por el
procesador.
2.3.1.1.
Conroe y Allendale
El primer procesador “Core 2 Duo” que llegó al mercado fue el “Conroe”,
que lo hizo a mediados de 2006, mientras el “Allendale” comenzó su
comercialización a principios de 2007. La diferencia entre ambos es mínima,
siendo “Allendale” el hermano pobre de “Conroe”. Éste último tiene un bus
frontal serial de mayor ancho de banda que el primero, al igual que una mayor
memoria caché. Por lo demás, son prácticamente idénticos. Ambos se
fabricaron con un proceso de 65 nm.
2.3.2.
Core 2 Quad
La siguiente generación fue “Core 2 Quad”, sería un cuádruple núcleo
“ficticio”. En este caso, un “Core 2 Quad” son dos “Core 2 Duo” en un
encapsulado. Esta solución es más barata y sencilla, siempre conlleva un
aumento de la potencia.
2.3.2.1.
Kentsfield
El nombre dado a los procesadores “Core 2 Quad” es “Kentsfield”. Se
fabrican con tecnología de 65 nm y empezaron a llegar al mercado a finales de
2006. Son dos “Conroe” en un encapsulado.
9
2.4.
Penryn
El siguiente paso llegó con “Penryn”, basada en la tecnología de “Intel
Core Microarchitecture”, pero con un nuevo proceso de fabricación de 45 nm.
Emplea la misma arquitectura que la anterior, aunque al reducirse el área
ocupada, se buscan una serie de objetivos:





Aumentar el rendimiento por ciclo de reloj.
Aumentar la frecuencia de reloj del procesador.
Incrementar la eficiencia energética.
Ofrecer un producto líder para la tecnología de 45nm de puertas
de metal de alto k+ de 45 nm.
Ofrecer una serie de procesadores optimizados para una serie de
segmentos de mercado y para diferentes requerimientos de
consumo.
Respecto a “Intel Core Microarchitecture” se mejora:






Introducción del divisor de raíz 16.
Mejora de la “Intel Virtualization Technology”.
Mayores cachés, hasta 6 MB ó 12 MB.
Mayor velocidad de los buses.
Instrucciones “Intel SSE4”.
Mejora de “Intel Dynamic Acceleration Tech”.
2.4.1.
Wolfdale
No es más que una compactación de “Conroe” y “Allendale”,
aprovechándose del empleo de un proceso de 45 nm. Comenzó su
comercialización a principios de 2008.
2.4.2.
Yorkfield
Al igual que los “Kentsfield” de la tecnología anterior “Penryn” que son
dos “Conroe”, los “Yorkfield” son dos “Wolfdale” en un encapsulado. Se
fabrican con tecnología de 45 nm y llegaron al mercado a finales de 2007.
Para ilustrar mejor la diferencia entre los “Core 2 Duo” y los “Core 2
Quad”, bajo estas líneas se muestra un floorplan de ambos procesadores.
10
Figura 6. Floorplan de un “Core 2 Duo” (Wolfdale) y de un “Core 2 Quad (Yorkfield)
2.5.
Nehalem
El siguiente paso en la evolución es “Nehalem”. Su tecnología se basa
en el empleo de 45 nm como su predecesor “Penryn”, en principio tiene 4
núcleos, aunque da un paso más allá respecto a los anteriores ya que su
implementación del paralelismo de los procesadores se realiza a partir de un
sistema nuevo desarrollado por Intel (QuickPath tenchology), que consiste en
proveer un controlador de memoria integrado y una interconexión de alta
velocidad por cada núcleo.
Estos nuevos procesadores tienen nuevas innovaciones y tecnologías:
 Una escalabilidad dinámica.: los núcleos, los hilos, las caches, la
cantidad de energía va en función de la demanda.
 “Hyper-Threading Techonology”: el diseño y la implementación de
la escalabilidad para servidores, estaciones de trabajo y pc con un
soporte de 2-8 núcleos pudiendo llegar a más de 16. Permite
aplicaciones de alto rendimiento dentro del flujo principal en 2-16
hilos optimizados para esta nueva generación de arquitecturas de
procesadores multi-núcleos.
 “Intel Turbo-Boost Technology”: Provee una actuación adicional de
manera automática, aprovechando mejor la energía.
 Memoria escalable compartida a través de la tecnología QuickPath,
caracteriza para procesador controladores de memoria integrados
e interconexiones punto a punto de alta velocidad.
 Caches compartidas multinivel, estas mejoran la implementación y
la eficiencia, reduciendo la latencia debido a los datos que se usan
frecuentemente.
11
2.5.1.
Bloomfield / Lynnfield
Primeros procesadores basados en “Nehalem” que ya han visto la luz y
están empezando a comercializarse. Los primero modelos de esta arquitectura
son los “Bloomfield”, que vienen con diferentes frecuencias de reloj (3.2, 2.93 y
2.66 Ghz), perteneciente a la familia de los procesadores i7. Estos
procesadores son los primeros en poseer un cuádruple núcleo real. Son
fácilmente escalables para que lleguen los primeros microprocesadores de
ocho núcleos, que se pasaría a llamar “Beckton”.
Por su parte los ”Lynnfield” que todavía no han salido al mercado serían
de gama baja, mientras que los “Bloomflied” serían de gama alta.
12
2.6.
Westmere
Después de “Nehalem” vendrá “Westmere”, una derivada de la primera.
El proceso de fabricación se verá reducido hasta los 32 nm. Su
comercialización estaba prevista para principios de este año, sin embargo se
ha retrasado a causa de que el “Nehalem” está empezando a distribuirse y que
ha habido que esperar para mejorar algunas d las características que se tenían
en mente al principio.
Las principales mejoras respecto a “Nehalem” serán:
 Procesador de 6 cores
 Un nuevo juego de instrucciones que aumentará por tres la tasa de
encriptación y de decodificación.
 Mejora la latencia de virtualización.
13
2.7.
Sandy Bridge
Aproximadamente en 2009 o 2010 deberían llegar al mercado los
primeros procesadores con la arquitectura que sustituiría a “Nehalem”, que se
llamaría “Sandy Bridge”, según la fuente consultada. Sería una arquitectura
completamente nueva fabricada con un proceso de 32 nm. Podrían ser los
primeros 8 núcleos en una sola pieza de silicio, lo que podría dar lugar a 16 ó
32 threads en un solo encapsulado. Se centrará en la eficiencia de energía y no
serán muy superiores las frecuencias de reloj a las actuales, sino que como he
dicho antes tendrá un mayor número de núcleos.
También dada su alta complejidad debe tener un nuevo sistema de
interconexión, además de poseer nuevas intrucciones (Advanced Vector
Extensions), para ello debería aumentar el data path de 128 bits a 256 bits. Las
instrucciones limitadas a 2 operandos pasan a convertirse en 4 operandos.
Estas instrucciones AVX se necesitan para aplicaciones de punto flotante
intensivas. Esta mejora en el código puede llegar a aumentar el doble en la
velocidad de ejecución en estas aplicaciones.
2.8.
Haswell
El sucesor de “Sandy Bridge” es “Haswell”. Tendría una arquitectura
fabricada a partir de 22 nm, está pensada comercializarse en 2012. Habrá
algunos cambios importantes en la arquitectura como, por ejemplo, un diseño
completamente nuevo de la caché, revolucionarios sistemas de ahorro
energético y más instrucciones que ayuden a la optimización del ciclo de reloj.
Un resumen de los planes de “Intel” desde 2004 hasta 2012 se muestra
bajo estas líneas.
Figura 5. Tecnologías y arquitecturas de “Intel”
14
De seguir esta tendencia, en 2011 ya estarían en el mercado los
primeros procesadores con tecnología de 22 nm. Siguiendo la filosofía puesta
en práctica por la compañía en los últimos años, la arquitectura sería la descrita
anteriormente como “Haswell”.
A continuación, se muestra una tabla con las diferentes características
de varios procesadores de “Intel”: “Pentium Dual-Core”, “Core 2 EXtreme”,
“Core 2 Duo”, “Core 2 Quad”, “Core i7”.
Figura 7. Tabla con diversos procesadores de “Intel” y sus datos correspondientes
15
3. Prestaciones
En este punto se van a tratar las prestaciones de los procesadores
tratados empleando diferentes benchmark, que las evaluarán en diferentes
entornos. Para ello se va a recurrir a los conocidos “SPEC” y a otros de “Tom’s
Hardware” basados en el uso de aplicaciones cotidianas y algunas específicas.
3.1.
SPEC
En este apartado se pasarán a mostrar los resultados de los benchmarks
de “SPEC” para un número de procesadores de “Intel. Hemos cogido los 6 de
la tabla siguiente ya que muestran las diferencias entre los diferentes tipos de
arquitecturas y sus mejoras.
Procesador
Intel Core i7-965 Extreme Edition
Intel Core i7-940
Intel Core i7-920
Intel Core 2 Extreme QX9770
Intel Core 2 Quad Q9650
Intel Core 2 Duo E8600
Chips
1
1
1
1
1
1
Núcleos
4
4
4
4
4
2
Threads
8
8
8
4
4
2
CPU MHz
3200
2933
2667
3200
3000
3333
Se hace necesario indicar que de la amplia muestra de procesadores
presentes en la tabla comparativa de los benchmarks de “SPEC” se cogieron
sólo aquellos que estaban montados en una placa base “Intel”, para realizar la
comparación de la forma más justa posible, además de que hemos cogido los
que mejores puntuaciones han tenido de cada generación comparándolos con
los últimos que han salido al mercado.
Entre las diferentes aplicaciones que hay, hemos querido explicar las
siguientes, debido a su importancia y coste computacional:







bwaves: simula numérica ráfagas de ondas en 3 dimensiones a
través de un fluido.
gamess: Realiza un amplio rango de operaciones de cálculo de
química cuántica.
milc: Ejecuta cálculos sobre teoría quántica y la consistencia de la
materia
zeusmp:Crea la solución de un problema físico en 3 dimensiones
de una ráfaga de ondas dentro de un campo magnético.
cactusADM: Resuelve las ecuaciones de la evolución de
Einstein,las cuales describe las curvas espacio tiempo como
respuesta al contenido de la materia (conjunto de 10 parejas
de ecuaciones diferenciales parciales no lineales).
Gems FDTD: Soluciona las ecuaciones de Maxwell en 3-D en el
dominio del tiempo del método de las diferencias finitas.
Sphinx3: Programa que realiza reconocimientos de voz.
16
3.2.
Tom’s Hardware
En este apartado se procederá a mostrar una serie de pruebas
realizadas en la web de “Tom’s Hardware”, en la que montan los procesadores
en sistemas idénticos, o cuando no es posible, lo más parecidos posibles y
lanzan un determinado número de aplicaciones. En este caso se han
seleccionado seis de ellas, las que podían parecer las más interesantes (por
orden alfabético): juego de ajedrez “Fritz 11”, conversión de 115 páginas de
“MS PowerPoint” a “Acrobat 9 PDF”, benchmark del CPU enfocado a
tratamiento con la memoria con “PC Mark”, filtrado de una imagen con “Adobe
Photoshop CS3”, demo del juego “Crisis” y tratamiento en punto de coma
flotante con “Sandra 2008”.
Esta web cuenta a su favor con la reputación que se ha ganado a lo
largo de muchos años, su imparcialidad, su profesionalidad, y sobre todo, que
está a la última. Prácticamente desde que sale al mercado algún producto
nuevo, lo ponen a prueba y lo incluyen en sus gráficos comparativos.
Resulta interesante incluir sus pruebas ya que se basan en aplicaciones
muy variadas; incluso muchas de ellas las puede utilizar un usuario medio en el
día a día.
17
El primero “Fritz 11”, un juego de ajedrez optimizado para arquitecturas
multi–núcleo:
Figura 12. Resultados de “Fritz”
Los mejores “Core i7”, en este caso de alta gama “Core 2 Extreme”
(todos con prefijo “QX”),y “Core 2 Quad” duplican a su perseguidor “Core 2
Duo” (en este caso, “X”). Hay un cambio significativo con los nuevos “Core i7”
respecto al resto y entre ellos mismos.
18
Conversión de un documento “MS–PowerPoint 2007” de 115 páginas a
“Acrobat 9 Pro PDF”:
Figura 13. Resultados de “MS PowerPoint – Adobe Acrobat 9 Pro PDF”
En este caso no se observa una mejoría respecto a los procesadores
anteriores, esto es debido a que la optimización no se enfocaba a este tipo de
aplicación, por tanto se mantienen en los tiempos, o incluso empeoran viendo
el “Core i7-920”.
19
Test de “PcMark-Memory Suite” para la CPU:
Figura 14. Resultados de “PC Mark”
Aunque no es una diferencia notoria se observa una mejoría en
tratamiento de la memoria, subiendo la puntuación de los nuevos “Core i7”.
20
Filtrado de una fotografía en formato TIF utilizando “Adobe Photoshop
CS3”:
Figura 15. Resultados de “Adobe Photoshop CS3”
En este caso pasa como el ejemplo anterior endonde no se aprecia una
mejoría, quedando con mayor puntuación los “cores” de 2 generaciones
anteriores como son los “Core 2 Duo”.
21
Demo del juego “Crisis”:
Figura 16. Resultados de “Crisis”
En este caso el juego es una aplicación donde se aprecian las
optimizaciones hechas en los “Cores i7” dando lugar a su mayor valoración,
seguido como es obvio del “Core 2 Extreme” que es de gama alta.
22
“Sandra 2008-Floating Point”, prueba de una aplicación en punto
flotante:
Figura 17. Resultados de “Sandra 2008”
Es impresionante la enorme mejoría que experimenta, en esta aplicación
es donde claramente se observa los grandes esfuerzos que se han hecho por
optimizar las aplicaciones en punto flotante. Se produce un salto muy
cualitativo respecto a los “Cores 2 Extreme”.
23
Las conclusiones que podrían extraerse de las pruebas, tanto de “SPEC”
como de “Tom’s Hardware” son las siguientes:
1. La potencia de cálculo, obtenida tanto de los resultados de “Fritz 11”
como de “PcMark-Memory Suite” o de “Sandra 2008-Floating Point”,
demuestra que los procesadores “Cores i7” tienen unas mayores
prestaciones que los anteriores.
2. El rendimiento para tareas simples, esto es, aquellas aplicaciones que
no aprovechan la arquitectura multi–núcleo, es muy parecido en ambos
casos. En cambio, cuando sí están ideadas para múltiples núcleos, se
nota la diferencia. Esto se puede comprobar de forma muy clara en las
tablas de “SPEC”.
3. En programas del día a día, como pueden ser el “Adobe Photoshop”,o el
“Adobe Acrobat”, la diferencia en el rendimiento no es la esperada, ya
que estas aplicaciones no aprovechan la existencia de varios núcleos.
4. En el caso de la demo del juego “Crisis” se nota una mejoría
relativamente importante, esto es debido a que si está pensado para
arquitecturas multi-cores, provocando un mayor aprovechamiento del
mismo.
4. Futuro
En septiembre de 2006 el consejero delegado de “Intel”, Paul Otellini,
presentó un prototipo de procesador de 80 núcleos. Esperan que para 2011 se
comercialicen los primeros modelos. En la foto, sostiene la oblea de 300 mm
con los prototipos. No indicó si irían destinados al mercado doméstico o al
mercado de servidores. Es de suponer que la compañía ofrecerá soluciones
para ambos, que a su vez satisfagan sus diferentes necesidades.
Figura 18. Paul Otellini sostiene una oblea de 300 mm con los prototipos de
procesadores de 80 núcleos
24
“Intel” tiene planeado implementar la tecnología de 32 nm en 2010 con la
arquitectura “Westmere”, aunque esto seguramente se vea condicionado por su
competidor “AMD”.
La idea de la compañía es estar preparada para los procesos de
fabricación de 22 nm para 2011. Una vez más, la llegada de familias de
procesadores que utilicen esa tecnología depende en gran medida de los
desarrollos de la competencia.
5. Conclusiones
Ante todo, “Intel” ha tratado de adelantarse a su máximo competidor en
el mercado doméstico de procesadores, “AMD”. Por ahora, podría decirse que
prácticamente monopoliza el segmento de procesadores de cuádruple núcleo,
ya que la competencia acaba de lanzar su propuesta, esto es, con más de un
año de diferencia. La estrategia de “Intel” podría resumirse en los siguientes
aspectos:
1. Trata de reducir el tiempo a mercado de sus productos para adelantarse
a la competencia. Esto se traduce en: ↓ investigación + ↓ tecnología + ↓
gastos. Opta por la solución tecnológica fácil al principio, pasado un
tiempo, la mejora: Ej. Pentium D ––> Core 2 Duo.
2. A día de hoy ya ofrece un núcleo cuádruple real, que son los de la
estructura “Nehalem”, el siguiente paso será unir 2 “cores i7” para formar
uno de 8 cores antes de aplicar la nueva arquitectura Solución +
barata
3. Cuando la tecnología de fabricación se reduce, gana tiempo adaptando
la anterior arquitectura al nuevo proceso. Además, dándole continuidad
consigue abaratar costes. Ej. Intel Core Microarchitecture ––> Penryn,
Nehalem ––> Westmere.
4. Cuando una tecnología de fabricación se encuentra consolidada, lanza
una nueva arquitectura que sustituye y mejora la anterior. Ej. Intel Core
Microarchitecture ––> Nehalem.
5. Tiene muy definida su estrategia de lanzamientos y su llegada al
mercado. Se aprovecha de su posición de dominio y los programa de tal
forma que cuando su rival, “AMD”, intenta hacerle frente, saca un
producto que supera al de la competencia. Un claro ejemplo es el de la
llegada de los procesadores de cuádruple núcleo “Yorkfield”, cuando
“AMD” acaba de estrenar su contrapartida, “Phenom”. “Intel” parte con la
ventaja de que los “Yorkfield” vienen a sustituir a los “Kentsfield”, o sea,
va por la segunda generación de sus procesadores de cuádruple núcleo
cuando “AMD” todavía se encuentra con los “Phenom” en su primera
generación y con los “Nehalem” este año ya va por su tercera
generación que mejora los anteriores.
25
Respecto a las prestaciones de los procesadores multi–núcleo, se
pueden realizar las siguientes observaciones:
 Contrariamente a lo que pueda parecer, en la gran mayoría de las
aplicaciones las prestaciones de la tecnología nueva no duplican las de
la anterior. Ej. Core 2 Quad ≠ 2x Core 2 Duo.
 Las aplicaciones deben estar preparadas para aprovechar al máximo las
prestaciones de las nuevas arquitecturas. Desgraciadamente, en este
sentido, el software va un paso por detrás del hardware.
Por último, si a día de hoy tuviera que comprarme un procesador, estas
serían mis elecciones y razones para ello:
1. Presupuesto ilimitado: obviamente lo que se buscaría sería el
máximo rendimiento a cualquier precio. En este caso la elección
sería el “Core i7 965 EXtreme”, claro ganador de todas las
pruebas. Su precio de mercado a enero de 2009 en EEUU es de
unos $1.000-1200. En España, su hermano más pequeño, el
“920” lo he encontrado a 350€, así que estaría rondando los 700€.
Son bastante más baratos que la generación anterior. Eso sí,
seguramente su vida útil sería la más larga de todos los
procesadores, aunque otros le andarían a la zaga.
2. Relación precio/rendimiento: por unos 250€ se tendría acceso a
un procesador de cuádruple núcleo, que sale bien parado en
todas las comparativas, el “Q6600”. Sería una buena opción y se
tendría procesador para unos cuantos años. Por algo menos,
unos 150€, se tendría un buen procesador de doble núcleo, el
“E6550”, que ofrecería un muy buen rendimiento a un precio más
que interesante.
3. Presupuesto limitado (hasta 100€): se podría elegir entre los
“Pentium D”, los más antiguos de todos los analizados, los
“E2XXX” y el “E4300” (con suerte). De ellos el mejor es el
“E4300”, que con su precio de unos 100€ (o quizá algo más),
sería el elegido. Las otras dos familias no llegan a los 80€, y entre
ellos optaría por el “E2180”, que aunque no salga en las
comparativas, es mejor que el “E2160” y que todos los “Pentium
D”. Estos últimos, aunque tienen un precio muy interesante,
consumen bastante más que los otros, así que a la larga la
factura energética sería más alta. Se ahorra por una parte, pero
se gasta por otra.
26
6. Referencias
Las referencias utilizadas a la hora de realizar este trabajo se detallan a
continuación. En el caso de tratarse de una web que contiene más de una
página de interés, se indica su dominio principal:
 Apuntes y documentación de la asignatura “Microprocesadores para
comunicaciones” de 5º curso de Ingeniería de Telecomunicación de la
ULPGC
 www.intel.com
 www.spec.org
 www.theinquirer.es
 www.tomshardware.com
 www.hothardware.com
 www.wikipedia.org
 techfreep.com/intel-80-cores-by-2011.htm
 www.trustedreviews.com/cpu-memory/review/2007/03/30/IntelProcessor-Roadmap-Penryn-Nehalem-and-the-Future/p3
 http://www.hexus.net/content/item.php?item=6184&page=2
 http://techreport.com/discussions.x/13232
27