Download Proporcionar QoS en HyperTransport - Universidad de Castilla

Document related concepts
no text concepts found
Transcript
Proporcionar QoS en HyperTransport*
Juan A. Villar, Francisco J. Alfaro, José L. Sánchez
Escuela Politécnica Superior de Albacete
Universidad de Castilla - La Mancha
{juanan, falfaro, jsanchez}@dsi.uclm.es
Resumen
PCI. HyperTransport (HT) es una nueva generación de redes de interconexión que propo-
HyperTransport (HT) es una nueva tecnología
ne la sustitución del bus PCI por una red con
compatible con PCI diseñada para proporcio-
enlaces punto a punto, manteniendo la com-
nar en un estándar abierto la funcionalidad de
patibilidad con PCI.
los sistemas de interconexión propietarios que
HT es una nueva tecnología de intercone-
han estado en el núcleo de sistemas empotra-
xión de altas prestaciones que cuenta como
dos, de almacenamiento y de comunicaciones.
gran ventaja el hecho de ser compatible con
Proporcionar calidad de servicio (QoS) en
PCI, y ser el protocolo utilizado de forma na-
entornos de computación y comunicaciones es
tiva por los procesadores Opteron y Athlon64
actualmente el centro de muchos esfuerzos en
de AMD. La especicación de HT se encuentra
investigación por parte de la industria y el ám-
en continua evolución desde que AMD decidie-
bito académico. HT incorpora mecanismos que
ra abrirla a otras empresas.
apropiadamente usados se espera que proporcionen QoS. Este trabajo tiene el objetivo de
dar a conocer la tecnología HT, las características que proporciona para la provisión de
QoS, y cuáles pueden ser las líneas de trabajo
para conseguir que HT proporcione QoS.
Por otra parte, AMD supervisa el desarrollo
de HT a través del HT Consortium [2]. Importantes empresas como nVidia, Sun, Transmeta, etc. ya se han unido al consorcio, donde
pueden colaborar en el desarrollo de productos compatibles con HT. En el año 2006, el
esfuerzo del consorcio se ha extendido al ám-
1.
Introducción
El bus PCI ha servido bien a la industria durante 13 años y todavía se usa hoy en día
bito académico con la fundación del Centro de
Excelencia de HyperTransport [3], con base en
la Universidad de Mannheim, Alemania.
HT incorpora mecanismos que apropiada-
ampliamente en gran variedad de sistemas
mente
tanto personales como corporativos. Sin em-
QoS. En concreto, HT permite utilizar cana-
bargo, los procesadores y dispositivos de en-
les virtuales, clases de tráco, intercalado de
trada/salida (E/S) actuales demandan mucho
transacciones, planicación de tráco y meca-
más ancho de banda y menor latencia que PCI
nismos de control de admisión. En este trabajo
puede proporcionar. La causa de esta limita-
se revisan todos ellos.
ción es precisamente la arquitectura de bus de
*
Este trabajo ha sido conanciado por el Ministerio de Educación y Ciencia, y la Comisión Europea FEDER con las subvenciones Consolider Ingenio2010 CSD2006-00046 y TIN2006-15516-C04-02;
por la Consejería de Educación y Ciencia de Castilla La Mancha con el proyecto PBC-05-005 y con una
Beca de Investigación.
usados
se
espera
que
proporcionen
La estructura de este artículo es la siguiente:
la sección 2 justica la necesidad de QoS en
las redes en placa; en la sección 3 se destaca
algunas características generales de HT, para
continuar en la sección 4 con las características
concretas de HT para proporcionar QoS; en la
siguiente sección se describe el trabajo que se
está realizando para dar garantías de QoS. Por
tir los recursos hardware disponibles entre
último se exponen algunas conclusiones.
las aplicaciones existentes, pero garantizando que cada una conseguirá alcanzar
2.
los niveles de calidad que tienen contra-
QoS en redes de interconexión
tados.
Proporcionar QoS a las aplicaciones ha sido un
tema importante tanto para la industria como
para la comunidad investigadora durante más
de treinta años. Sin embargo, las propuestas
para proporcionar QoS suelen enmarcarse en
entornos LAN, SAN, Internet, etc. No suele
ser frecuente encontrar aproximaciones que intenten soportar QoS en un entorno cercano al
procesador, que es donde se centra HT.
Los dos últimos estándares de interconexión
propuestos en estos entornos que incorporan
algún tipo de soporte de QoS han sido InniBand [4] y Advanced Switching [5]. Estos
dos estándares tenían el objetivo inicial de reemplazar al bus PCI. Hoy en día InniBand
es una opción bastante utilizada para montar
clusters o SANs. Sin embargo, el fracaso en
cuanto a reemplazar al bus PCI ha sido absoluto. El fracaso de Advanced Switching ha
sido todavía más denitivo que el de InniBand, puesto que ha perdido el apoyo de las
En este segundo caso es evidente que no será
suciente con proporcionar QoS a nivel de red,
y será necesario involucrar también al planicador de tareas del sistema operativo, la gestión de memoria, etc. Sin embargo, también
resulta evidente que en estos casos será necesario aplicar algún tipo de arbitraje a nivel de
comunicaciones (en nuestro caso en HT), para
conseguir la priorización que se quiera aplicar.
Así pues, es evidente que en este tipo de
entornos de uno o varios procesadores interconectados con una serie de dispositivos de E/S,
también hay una necesidad de proporcionar
QoS en las comunicaciones. Esto fue advertido
por los diseñadores de InniBand o Advanced
Switching y esa fue la razón de que en ambos
estándares de interconexión la QoS fuera un
punto fuerte. El hecho de que esas propuestas
no hayan terminado de triunfar no quiere decir
que sus objetivos no fueran acertados.
empresas. Sin embargo, hay algunos detalles
de esos estándares que deben considerarse con
detenimiento, por ejemplo, que en ambos la
QoS era un tema importante.
Visto lo anterior, la pregunta de si HT será
3.
HyperTransport
La
tecnología
nalmente
HyperTransport
llamada
[1],
origi-
Lightning Data Transfer
el siguiente surge de inmediato. Sin embargo,
(LDT), fue desarrollada inicialmente por Ad-
la principal diferencia es que HT es una tecno-
vanced Micro Devices (AMD) con la ayuda de
logía asentada que está en uso por AMD, uno
otras empresas, para conseguir un enlace pun-
de los principales fabricantes de procesadores,
to a punto, de alta velocidad y baja latencia
desde que fuera propuesta.
para la interconexión de circuitos integrados
Por otra parte, la necesidad de QoS en estos
entornos dentro de un servidor puede surgir
desde dos puntos distintos:
•
Priorización. No todas las comunicaciones
generadas son igual de prioritarias. No es
lo mismo una invalidación de un protocolo
de coherencia, que un mensaje de sincronización, que una petición de E/S programada, o que una petición de DMA, etc.
[9].
•
en placa.
La tecnología de interconexión HT suministra una latencia baja en enlaces chiptochip
y boardtoboard. HT plantea una arquitectura escalable y exible, diseñada para reducir el número de buses en el sistema. Con unos
enlaces de alto rendimiento, sus aplicaciones
van desde sistemas empotrados, ordenadores
personales y servidores, hasta equipamiento de
red y supercomputadores.
La versión 3.0 extiende la anterior versión
Virtualización. En los sistemas actuales
2.0. En HT 3.0 la frecuencia máxima de reloj
una opción muy interesante es compar-
va desde 1,8 a 2,6 Ghz, empleando Dual Da-
ta Rate. El ancho de banda máximo agregado que es capaz de alcanzar HT 3.0 asciende
a 41,6 Gbyte/s, suponiendo un aumento del
86 % respecto a HT 2.0, lo que signica un
ancho de banda máximo por enlace de 20,8
Gbyte/s (166 Gbit/s). HT es completamente
compatible con algunas tecnologías legadas de
interconexión de componentes periféricos, esto
es: PCI, PCI-X y PCI Express [5].
El HyperTransport Consortium [2] es la entidad que publica la especicación, la mantiene y conduce el desarrollo de sus nuevas versiones. El consorcio agrupa a las empresas que
Figura 1: Intercalado de paquetes.
desarrollan productos basados en esta tecnología, lo que les permite realizar sus diseños
con la seguridad de que el producto nal será
compatible con un gran repertorio de sistemas
diferentes.
3.1. Conmutación de paquetes
Los dispositivos HT se comunican mediante el
intercambio de paquetes. Todos los paquetes
están clasicados como paquetes de control o
El tamaño de los paquetes de control viene
dado por la especicación según el tipo. Por
contra, el tamaño de los paquetes de datos se
dene en el correspondiente paquete de control. El tamaño habitual de un paquete de control está entre 4 y 8 bytes, y en el caso de los
paquetes de datos está entre 4 y 64 bytes.
3.2. Topología
de datos. Además, en HT existe el concepto de
Un sistema HT estándar se divide en dos par-
transacción, de modo que una transacción se
tes: una parte llamada
compone de un paquete de control, y cuando
vos de computación tales como procesadores,
sea necesario, de un paquete de datos. Así, to-
y una segunda parte alberga el subsistema de
dos los paquetes de control contienen un cam-
E/S. Ambas partes se unen por medio de una
po que indica un comando que representa una
interfaz llamada
operación, por ejemplo: lectura, escritura, ba-
que habitualmente componen la parte host son
rrera, respuesta de escritura, etc. Por otra par-
los procesadores Opteron de AMD. Gracias a
te, los paquetes de datos no contienen informa-
sus tres enlaces HT integrados en el chip, los
ción de encaminamiento, y se limitan a seguir
Opteron pueden formar tanto topologías regu-
a su correspondiente paquete de control y, por
lares como irregulares.
host
hostbridge
contiene dispositi-
(HB). Elementos
tanto, es obligatorio que entre un paquete de
La red host se extiende al subsistema de E/S
control y su correspondiente paquete de datos
mediante unos elementos especiales llamados
no exista ningún otro paquete de datos.
bridge, tunnel
y
cave.
Tales dispositivos per-
No obstante, sí se permite el intercalado con
miten la concatenación de los dispositivos de
paquetes de control que no tengan a su vez pa-
E/S en forma de cadena o árbol. En la Figu-
quetes de datos, entre otro paquete de control
ra 2 se puede ver como los dispositivos HT, y
y su respectivo paquete de datos. En la Figu-
los dispositivos que no son HT, van formando
ra 1 se puede ver el funcionamiento de esta
una estructura de cadena mediante dispositi-
técnica utilizada por HT, donde un disposi-
vos especiales y en el extremo de la cadena se
tivo, situado entre otros dos dispositivos que
conecta el host.
están realizando una tranferencia grande, in-
En el sistema se permite la existencia de va-
tercala un paquete de control sin paquete de
rias cadenas. En un extremo de la cadena se
datos, de forma que no se ve forzado a esperar
sitúa un HB, que es el responsable de gestionar
a que la primera transferencia termine.
todo el tráco que viaja dentro de la cadena.
El UnitID igual a 0 está reservado para el HB,
y existen otros 31 identicadores, como máximo, a repartir entre los dispositivos de la cadena. Un ujo de E/S está compuesto por todo el
tráco perteneciente a un único UnitID, aunque se permite que un dispositivo posea varios
UnitID cuando desee tener varios ujos en un
momento dado. Así, los UnitID permiten a la
cadena HT tratar de forma independiente el
tráco de cada ujo de E/S, aplicando las reglas de ordenación de la E/S a cada ujo.
Figura 2: Topología en cadena y árbol.
3.5. Control de ujo
HT dene dos esquemas de control de ujo.
En el caso de existir más de un HB conectado a la cadena, los dispositivos se asignarán a
cada uno de los HBs, formando así dos subcadenas disjuntas; en caso contrario, uno de
los HBs deberá congurarse como maestro y
el otro como esclavo. Salvo que se habilite el
soporte
DirectRoute, todo el tráco entre cua-
lesquiera de los dispositivos de una cadena se
reejará en el HB. Como los enlaces son unidireccionales, el tráco hacia el HB utiliza los
upstream, y el tráco desde el HB utiliza los enlaces downstream. A todos los niveles,
enlaces
los enlaces upstream y downstream son independientes.
El esquema principal que se aplica únicamente a los conjuntos de canales virtuales BaseSet e IsocSet (ver sección 4.1), es un esquema
basado en cupones. El cupón representa a un
paquete al que un dispositivo receptor asegura
espacio en sus buers de entrada. El segundo
esquema de control de ujo es el llamado Control del Flujo Extendido y se utiliza sólo con
conjuntos de canales virtuales distintos al BaseSet e IsocSet, quedando su uso restringido
a un uso especíco de la implementación. La
implementación del control de ujo extendido
es opcional.
El control de ujo se aplica a nivel de enlace
y por cada tipo de buer. En cada buer hay
3.3. Compatibilidad
espacio para al menos el mayor paquete de ese
Por otra parte, HT es compatible con PCI. Es-
criterio de los diseñadores. Aparte, los emiso-
to le afecta a varios niveles en el diseño, por
res nunca emitirán ninguna transacción a no
ejemplo, implica que el proceso de inicializa-
ser que exista espacio suciente en el recep-
ción y conguración en ambas tecnologías son
tor para contener tanto el paquete de control
idénticos. El sistema, tras completar la fase de
como su respectivo paquete de datos en caso
arranque, delega en el software la responsabili-
de existir.
dad de conguración del sistema con las características avanzadas propias de HT. Igualmente, HT aplica las mismas reglas de ordenación
de E/S que dene PCI. Esto asegura que las
secuencias emitidas con restricciones de ordenación son recibidas y procesadas respetando
dicha ordenación original del emisor.
tipo, quedando el tamaño máximo de buer a
3.6. Encaminamiento
HT implementa un esquema de encaminamiento distribuido, pero con algunas particularidades. En la parte de host, los switches contienen rangos de direcciones y encaminan los
paquetes mediante la comparación entre la di-
3.4. Direccionamiento
rección contenida en los paquetes y los rangos
Todos los dispositivos pertenecientes a una ca-
de la cadena los paquetes son encaminados en
dena de HT se identican con un valor UnitID.
base a su identicador de UnitID y según si
de direcciones conocidos. Sin embargo, dentro
Conjunto
viajan por el upstream o downstream. Ade-
Número de CVs
lesquiera dos dispositivos, por lo que el algo-
BaseSet
IsoSet
AltSet
ritmo de encaminamiento es determinista.
NonFCSet
1
StreamSet
16
más, debe existir un único camino entre cua-
Los procesadores de un host se interconec-
3
tan entre sí mediante enlaces físicos HT, y op-
Reservado para futuras
estandarizaciones
Sin especicar
cionalmente también pueden interconectarse
Reservado ccNUMA
Sin especicar
Especíco de la implementación
Sin especicar
mediante switches. Los puertos de los switches
HT se clasican como primarios o secundarios,
quedando prohibido el tráco entre puertos
Tabla 1: Conjuntos de canales virtuales.
primarios. A su vez, los switches pueden formar particiones de puertos quedando el tráco
entre puertos de distintas particiones prohibi-
plir ciertas directivas de la especicación. En-
do. Los switches establecen hasta dieciséis re-
tre los conjuntos de canales virtuales existen
giones de direcciones en base a las cuales enca-
prioridades. El conjunto AltSet es más prio-
minan los paquetes que reciben. La especica-
ritario que el BaseSet, pero implementa un
ción HT deja libre los algoritmos de arbitraje
algoritmo de control de tráco inyectado me-
y tampoco dene una estructura interna de
diante ventana para garantizar que no produce
switch. Por otra parte, un puerto primario de
inanición en el conjunto BaseSet; el conjun-
un switch sólo puede conectarse a un puerto
to NonFCSet es el más prioritario de todos,
secundario de otro switch. Se garantiza que no
pero igualmente se limita su tráco inyecta-
existen bucles, aunque se permite redundancia
do mediante un algoritmo
para tolerancia a fallos, y que el algoritmo de
gamente, el conjunto StreamSet es el menos
encaminamiento es libre de bloqueo.
prioritario pero en este caso se le garantiza un
leaky bucket ; análo-
ancho de banda mínimo también mediante un
4.
Soporte de QoS en HyperTransport
A continuación se revisan los principales mecanismos que tiene HT para proporcionar QoS.
4.1. Canales virtuales
HT dene 26 canales virtuales estándar más
algoritmo leaky bucket; y respecto a los conjuntos especícos de cada implementación, la
especicación obliga a los diseñadores que eviten arruinar las expectativas del usuario y no
provoquen inanición en el resto de canales virtuales.
4.2. Tipos de tráco
otros especícos, agrupados en los conjuntos
HT dene tres tipos de tráco: Programmed
que se pueden ver en la Tabla 1. Existe un
I/O (PIO), Direct Memory Access (DMA), y
conjunto llamado BaseSet, de implementación
Peer-to-Peer (P2P). La Figura 3 muestra el
obligatoria, compuesto por tres canales virtua-
ujo de cada tipo de tráco.
les: uno para las peticiones con conrmación
nonposted ), otro para las peticiones sin conposted ) y el tercero para las respuestas (response ). Los restantes canales vir(
rmación (
tuales son opcionales. Cada canal virtual engloba tanto los paquetes de control como los
paquetes de datos que le corresponden, además los dispositivos implementan buers separados para control y datos.
Los diseñadores que decidan implementar
los canales virtuales opcionales deberán cum-
Figura 3: Flujos de tráco en HT.
El tráco PIO se origina en el HB como resultado de la ejecución de código por la CPU
en la parte host, y tiene como objetivo dispositivos de E/S o E/S de un dispositivo mapeada en memoria. Por ejemplo, cuando el código de un driver de dispositivo ejecuta código
que produce una transacción para congurar el
dispositivo, comprobar su estado, o para realizar una transferencia de datos supervisada por
la CPU. Las transacciones inicializadas por la
CPU se envían a los dispositivos en la cadena
a través del HB como se aprecia en la Figura 3.
La transacción de la gura es una petición de
escritura enviada por el HB, y el dispositivo
Figura 4: Tráco DirectRoute y HostReected.
destino no tiene que responder a la CPU. En
los casos de peticiones con conrmación, sí es
necesario que el dispositivo retorne una respuesta a la CPU.
se ve grácamente el camino recorrido por el
tráco DirectRoute.
Cuando se emite tráco reejado (
El tráco DMA se da cuando la CPU requie-
ected )
HostRe-
la petición viaja por el upstream des-
re que se transera grandes cantidades de in-
de el dispositivo emisor en sentido HB. Cuan-
formación entre la memoria y los dispositivos.
do la petición llega al HB, se reenvía por el
En este caso, la CPU no realiza una supervi-
downstream hacia el dispositivo destino. Si se
sión de dicha transferencia, sino que congu-
trata de una transacción que requiere una res-
ra los dispositivos con unas pocas transaccio-
puesta, ésta recorrerá el camino inverso al que
nes PIO para indicar el tamaño, la dirección
hizo la petición, primero subiendo por el ups-
de memoria, tipo de operación, etc., y delega
tream hasta el HB para reejarse y bajar por
en los dispositivos la responsabilidad de mo-
el downstream hasta el dispositivo que emitió
ver la información hacia/desde memoria. La
la petición. En la Figura 4 se muestra gráca-
CPU puede continuar realizando otras tareas
mente el camino recorrido por el tráco ree-
mientras se realiza la transferencia. Cuando la
jado.
transferencia se complete, el dispositivo informará a la CPU mediante un mensaje de interrupción. En la Figura 3 se muestra el caso
4.3. Algoritmo de fairness
de una operación de lectura por DMA hacia la
En el momento de enviar paquetes, cada nodo
memoria principal.
debe ser capaz de inyectar el tráco propio
Aunque por el nombre podría ser confuso,
dentro de ujos de tráco provenientes de
el tráco P2P no se reere al tráco directo
otros nodos, y que el nodo tiene que reenviar.
entre un dispositivo emisor y otro receptor sin
Esta unión de ujos de tráco se debe reali-
pasar por el HB, porque los ujos P2P tam-
zar garantizando que no existe inanición entre
bién se procesan en el HB. Por otra parte, HT
los ujos. En el caso de los túneles HT, la im-
introduce la característica
que sí
plementación del algoritmo fairness es obliga-
permite, a dos dispositivos dentro de una cade-
toria, para proveer un acceso equitativo para
na, intercambiar transacciones entre ellos sin
todos los ujos. El algoritmo
que el HB procese los paquetes, minimizando
ta un comportamiento aproximado al round-
la posible sobrecarga debida al paso por el HB.
robind de un bus. No obstante, algunos dis-
Además, las reglas de ordenación de E/S no
positivos, probablemente, no requieran de este
se aplican a las transacciones de tráco Direc-
trato equitativo.
DirectRoute
fairness
presen-
tRoute. Esta característica sólo es compatible
La especicación dice que a cada nodo se le
desde la versión 1.1 de HT. En la Figura 4
permite insertar paquetes en uno de sus en-
laces a la misma tasa que otro nodo inserta
paquetes cuando no haya paquetes esperando
tráco a través de él. Además, cada nodo es li-
ser enviados. El Denominator se pone a 1 con
bre de utilizar como considere los periodos sin
un reset.
tráco de sus enlaces. Esta propiedad debe ser
Para respetar la tasa de inserción, cada nodo
aplicada sobre una ventana de tiempo (se ve-
tiene un contador de 6 bits (referenciado como
rá a continuación) lo sucientemente pequeña
Window), que se pone a 1 con un reset. Tam-
para gestionar patrones de tráco dinámico,
bién tiene un contador de 1 bit (referenciado
pero sucientemente larga para ser estadísti-
como Priority) que se pone a 0 con un reset.
camente convergente. A n de que el sistema
Cuando un nodo tiene paquetes listos para ser
sea consistente, cada nodo debe implementar
enviados por un enlace de salida, el nodo de-
el mismo algoritmo fairness que se describe a
cide qué envía en base a los siguientes casos:
continuación. Por otra parte, la generación de
•
paquetes de información no se ve afectada por
hay paquetes para reenviar se envía el
este algoritmo, puesto que los paquetes de in-
paquete y se decrementa el contador Win-
formación sólo existen en el dominio del enla-
dow.
ce.
El algoritmo fairness consiste en dos partes:
•
•
No hay paquetes locales, pero hay paquetes para reenviar se envía el paquete y
La primera parte calcula la tasa de inser-
se pone a cero el registro Priority.
ción que cada nodo puede usar.
•
Hay un paquete local para inyectar y no
•
La segunda parte rige cómo cada nodo al-
Hay algún paquete local para enviar y
también hay paquetes para reenviar si
canza la tasa de inserción.
Priority vale 1 se inserta el paquete local
El algoritmo debe implementarse indepen-
y se pone el registro Priority a 0. En caso
dientemente para ambas direcciones upstream
contrario, se envía el paquete y el registro
y downstream. No es necesario mantener un
Window se decrementa.
control dedicado, ni registros de estado y no
Cuando el registro Window alcanza el valor
tiene parámetros congurables.
Para calcular la tasa de inserción, ésta se de-
cero, el siguiente valor tiene que recalcularse.
duce de la tasa máxima de envío de paquetes
Para ello, el registro Priority se pone a 1. A
entre las tasas de los nodos del downstream.
n de alcanzar tasas de inserción no integra-
Esto se hace implementando 32 contadores de
les, el nuevo valor del registro Window debe
3 bits, uno por cada UnitID del downstream
calcularse de forma probabilista. Cada nodo
junto a un único contador de 8 bits. Los Uni-
implementará un registro de desplazamiento
tID se consideran de forma separada, aunque
con retroalimentación lineal (
Linear Feedback
varios estén asignados al mismo dispositivo.
Shift Register,
Con el reset se ponen a cero todos los con-
linomio
tadores. Cuando se envía un paquete con un
Window se recalcula, el nuevo valor resulta de
UnitID por el downstream se incrementan tan-
desplazar
to su contador de 3 bits como el contador de 8
recha 3 posiciones.
x9 +
LFSR) de 9 bits usando el pox4 + 1. Cada vez que el registro
(Denominator+LFSR[2:0])
a la de-
bits. En el momento en que uno de los contadores de 3 bits se desborde, se captura el valor
5.
Trabajo en desarrollo
del contador de 8 bits (referenciado como Denominator) y se resetean todos los contadores.
La provisión de QoS en HT se pretende
La tasa de inserción de paquetes se establece
abordar desde dos puntos de vista bien distin-
como
8/Denominator,
esto es, que en media
tos, pero complementarios: respetando el es-
de cada UnitID se pueden insertar 8 paquetes
tándar y proponiendo modicaciones al están-
por cada Denominator paquetes enviados. La
dar.
inserción debe hacerse de forma progresiva y
En el primer caso la idea es explotar al má-
evitando las ráfagas. Siempre se puede insertar
ximo las posibilidades que propone el estándar
de HT. Para ello será fundamental conocer con
un simulador que sirva para comprobar la va-
detalle las distintas posibilidades que ofrece.
lidez de las propuestas, y será la mejor opción
En el segundo caso se pueden proponer mo-
antes de trasladarlas a un sistema real.
dicaciones al estándar HT de cara a mejorar
las prestaciones ofrecidas.
Una posible mejora del estándar sería proponer nuevas topologías de interconexión entre los dispositivos que permitieran distribuir
mejor el tráco. Esto redundará en alcanzar
mayor ancho de banda en la red, y por tanto
mejorarán las latencias. También es interesante proponer distintos algoritmos de planicación que permitan proporcionar distintos tipos
de QoS a los ujos.
Estos algoritmos a probar podrán estar basados en asignación de ancho de banda o en
acotar las latencias máximas. Buena parte del
trabajo previo realizado por los autores se ha
centrado en proporcionar QoS para los están-
Referencias
[1] HyperTransport Technology Consortium,
HyperTransport I/O Link Specication Revision 3.0, http://www.hypertransport.
org,
2006.
[2] HyperTransport Technology Consortium,
http://www.hypertransport.org
[3] Center
estándar.
Para comprobar la validez de las propuestas se está desarrollando un simulador de HT
acorde a las características de la versión 3.0 de
la especicación.
6.
Conclusiones
En este trabajo, se ha presentado la tecnología
de interconexión HT. Tras revisar las características más generales de HT nos hemos centrado en los mecanismos que proporciona HT
para proporcionar QoS. La provisión de QoS
es una necesidad en este tipo de redes que ya
contemplaron tecnologías anteriores como In-
Excellence
for
HyperTrans-
http://www.ra.informatik.
uni-mannheim.de/coeht
[4] InniBand
Trade
Association,
www.infinibandta.org
dares InniBand [7] y Advanced Switching [8],
y por tanto podrá ser aplicado en este nuevo
of
port,
[5] PICMG,
http://
PCI Express Advanced Switching,
http://www.picmg.org
QNoC: QoS architecture and design process for network on
chip, Journal of System Architecture, El-
[6] Evgeny Bolotin et al.,
sevier North-Holland, Inc., 2004.
Una sencilla metodología para garantizar QoS en subredes InniBand, ISBN:84-8427-320-2, 2004,
[7] Francisco J. Alfaro,
[8] A. Martínez and R. Martínez and F.J. Al-
A Low-Cost Strategy to Provide Full
QoS Support in Advanced Switching Networks, Journal of Systems Architecture,
faro,
Elsevier Science, 2007.
sirven para proporcionar QoS. Para nalizar,
Interconnect-Aware
Coherence Protocols for Chip Multiprocessors, ISBN:0-7695-2608-X, IEEE Compu-
se han visto qué lineas de trabajo se están si-
ter Society, 2006.
niBand y Advanced Switching. En este sentido HT dene mecanismos que bien utilizados
guiendo; la más importante es el desarrollo de
[9] Liqun Cheng et al.,