Download ¿Qué es un ordenador?

Document related concepts
no text concepts found
Transcript
¿Qué es un ordenador?
Definición de
ordenador
Un ordenador es una máquina
programable. Las dos
características principales de un
ordenador son:
1. Responde a un sistema específico de instrucciones de una manera bien definida.
2. Puede ejecutar una lista de instrucciones pregrabadas (un programa).
Los ordenadores modernos son electrónicos y digitales. La maquinaria real, cables,
transistores, y circuitos, se llama hardware; las instrucciones y los datos se llaman
software.
Todos los ordenadores de uso general requieren los siguientes
componentes de hardware:





Memoria: Permite almacenar datos y programas al ordenador, por lo menos
temporalmente.
Dispositivo de almacenamiento masivo (mass storage device): Permite que el
ordenador conserve cantidades grandes de datos permanentemente. Los discos duros
son un ejemplo de dispositivo de almacenamiento masivo.
Dispositivos de entrada (input devices): Generalmente teclado y ratón, el dispositivo
de entrada es el conducto a través de el cual los datos y las instrucciones se introducen
en un ordenador.
Dispositivos de salida (output devices): La pantalla de visualización, la impresora, o
cualquier otro dispositivo que te deja ver el resultado de lo que ha hecho el
ordenador.
La unidad de proceso central (CPU): Es el cerebro del ordenador, es el componente
que realmente ejecuta las instrucciones.
Además de estos componentes, muchos otros hacen posible que los componentes
básicos trabajen juntos eficientemente. Por ejemplo, cada ordenador requiere un bus que
transmita datos de una parte del ordenador a otra.
Generalmente los ordenadores se pueden clasificar por tamaño y
potencia de la siguiente forma, aunque hay un solapamiento
considerable:





Ordenador personal (personal computer): Un ordenador pequeño, para un sólo
usuario basado en un microprocesador. Además del microprocesador, un ordenador
personal tiene un teclado para introducir datos, un monitor para mostrar la
información, y un dispositivo de almacenamiento para guardar datos.
Estación de trabajo (workstation): Una computadora de gran potencia para un sólo
usuario. Una estación de trabajo es como un ordenador personal, pero tiene un
microprocesador más potente y un monitor de mejor calidad.
Miniordenador (minicomputer): Un ordenador para varios usuarios capaz de soportar
centenares de usuarios simultáneamente.
Chasis (mainframe): Una computadora multiusuario de gran potencia capaz de
soportar miles de usuarios simultáneamente.
Superordenador (supercomputer): Un ordenador extremadamente rápido que puede
realizar cientos de millones de instrucciones por segundo.
La placa base.
La placa base es el esqueleto de nuestro ordenador. En
sus ranuras van fijados todos los demás componentes, y
su calidad influirá sustancialmente en la velocidad del
equipo, además de las posibilidades del equipo.
Tipos de placas base
En los ordenadores actuales existen seis tipos básicos
de placas base, en función de la CPU: Socket 7, Socket
8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas
Socket 7 albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de IDT;
ya no se venden, pues carecen de las interfaces más utilizadas en la actualidad, como el bus
AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7, también
compatibles Pentium y K6. Las placas Socket 8, muy escasas, albergan los extinguidos
procesadores Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los
Pentium II/III y Celeron, y suelen disponer del formato ATX, que reorganiza la localización de
las tarjetas, para que quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de
cables internos. Las placas ATX también necesitan una carcasa especial ATX. Una variante
son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en servidores
profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con
las mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante.
El microprocesador.
El microprocesador es un tipo de circuito
sumamente integrado. Los circuitos
integrados, también conocidos como
microchips o chips, son circuitos
electrónicos complejos formados por
componentes extremadamente pequeños
formados en una única pieza plana de poco
espesor de un material conocido como
semiconductor. Hay microprocesadores que
incorporan hasta 10 millones de
transistores (que actúan como amplificadores electrónicos, osciladores o, más a
menudo, como conmutadores), además de otros componentes como resistencias, diodos,
condensadores y conexiones, todo ello en una superficie comparable a la de un sello
postal.
Los
microprocesadores
suelen
estar
recubiertos por una carcasa de protección.
Los conductores que sobresalen del
procesador mostrado en la fotografía se
conectan a unas pequeñas patillas metálicas
que se sueldan a las placas de circuito
integrado.
Circuito integrado
Este circuito integrado, un microprocesador F-100, tiene sólo 0,6 cm2, y es lo bastante
pequeño para pasar por el ojo de una aguja
Un microprocesador consta de varias secciones diferentes. La unidad aritmético-lógica
(ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los
registros son zonas de memoria especiales para almacenar información temporalmente;
la unidad de control descodifica los programas; los buses transportan información
digital a través del chip y de la computadora; la memoria local se emplea para los
cómputos realizados en el mismo chip.
Los microprocesadores más complejos contienen a menudo otras secciones; por
ejemplo, secciones de memoria especializadas denominadas memoria cache, que sirven
para acelerar el acceso a los dispositivos externos de almacenamiento de datos. Los
microprocesadores modernos funcionan con una anchura de bus de 64 bits (un bit es un
dígito binario, una unidad de información que puede ser un uno o un cero): esto
significa que pueden transmitirse simultáneamente 64 bits de datos.
Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o
señal de reloj, para coordinar todas las actividades del microprocesador. La velocidad de
reloj de los microprocesadores más avanzados es de unos 800 megahercios (MHz) —
unos 800 millones de ciclos por segundo—, lo que permite ejecutar más de 1.000
millones de instrucciones cada segundo.
Unidad central de proceso o UCP (conocida por sus siglas en inglés,
CPU):
Es un circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del
control y el proceso de datos en las computadoras. Generalmente, la CPU es un
microprocesador fabricado en un chip, un único trozo de silicio que contiene millones
de componentes electrónicos.
El microprocesador de la CPU está formado por una unidad aritmético-lógica que
realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una
afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de
registros donde se almacena información temporalmente, y por una unidad de control
que interpreta y ejecuta las instrucciones.
Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU
se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus
conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los
dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida
(por ejemplo, un monitor o una impresora).
Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa,
lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se
ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y
temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde
la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de
almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta
la CPU, donde se almacena en el registro de instrucción.
Entretanto, el contador de programa se incrementa en uno para prepararse para la
siguiente instrucción. A continuación, la instrucción actual es analizada por un
descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por
la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y
se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la
instrucción, y los resultados se almacenan en otro registro o se copian en una dirección
de memoria determinada.
Memoria de Computadora
Como el microprocesador no es capaz por
sí solo de albergar la gran cantidad de
memoria necesaria para almacenar
instrucciones y datos de programa (por
ejemplo, el texto de un programa de
tratamiento de texto), pueden emplearse
transistores como elementos de memoria en combinación con el microprocesador.
Tipos de Memoria

Memoria de acceso aleatorio o RAM, memoria basada en semiconductores
que puede ser leída y escrita por el microprocesador u otros dispositivos de
hardware tantas veces como se quiera. Es una memoria de almacenamiento
temporal, donde el microprocesador coloca las aplicaciones que ejecuta el
usuario y otra información necesaria para el control interno de tareas; su
contenido desaparece cuando se apaga el ordenador o computadora, de ahí que
los datos que se quieran conservar a largo plazo se tengan que almacenar en los
discos. RAM es un acrónimo del inglés Random Access Memory. El acceso a
las posiciones de almacenamiento se puede realizar en cualquier orden, por eso
se le llama memoria de acceso aleatorio. Intel introdujo el primer chip de RAM
en 1970 y tenía una capacidad de 1 Kb. Actualmente la memoria RAM para
computadoras personales se suele fabricar en módulos insertables llamados
DIMM, SO-DIMM y SIMM, cuya capacidad alcanza los 512 Mb; una placa
base puede tener varios de estos módulos.
Existen diversos tipos de memoria de acceso aleatorio:



La RAM estática (SRAM), conserva la información mientras esté conectada la
tensión de alimentación, y suele emplearse como memoria cache porque
funciona a gran velocidad.
La RAM dinámica (DRAM), es más lenta que la SRAM y debe recibir
electricidad periódicamente para no borrarse. La DRAM resulta más económica
que la SRAM y se emplea como elemento principal de memoria en la mayoría
de las computadoras.
Memoria de sólo lectura o ROM, acrónimo de Read Only Memory, memoria
basada en semiconductores que contiene instrucciones o datos que se pueden
leer pero no modificar. En las computadoras IBM PC y
compatibles, las memorias ROM suelen contener el
software necesario para el funcionamiento del sistema y
permanece aunque se apague el ordenador; este
contenido se establece cuando se fabrican. Para crear un
chip ROM, el diseñador facilita a un fabricante de
semiconductores la información o las instrucciones que
se van a almacenar. El fabricante produce entonces uno
o más chips que contienen esas instrucciones o datos. Como crear chips ROM
implica un proceso de fabricación, esta creación es viable económicamente sólo
si se producen grandes cantidades de chips. Los diseños experimentales o los
pequeños volúmenes son más asequibles usando PROM o EPROM. El término
ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM
y EPROM.
Memoria programable de sólo lectura o PROM, acrónimo de Programmable Read
Only Memory, tipo de memoria de sólo
lectura (ROM) que permite ser grabada con
datos mediante un hardware llamado
programador de PROM. Una vez que la
PROM ha sido programada, los datos
permanecen fijos y no pueden
reprogramarse. Dado que las ROM son
rentables sólo cuando se producen en
grandes cantidades, se utilizan memorias
programables de sólo lectura durante las fases de creación del prototipo de los diseños.
Nuevas PROM pueden grabarse y desecharse durante el proceso de perfeccionamiento
del diseño.
Memoria programable y borrable de sólo lectura o EPROM, tipo de memoria, también
denominada reprogramable de sólo lectura (RPROM, acrónimo inglés de Reprogrammable
Read Only Memory). Las EPROM (acrónimo inglés de Erasable Programmable Read Only
Memory) son chips de memoria que se programan después de su fabricación. Son un buen
método para que los fabricantes de hardware inserten códigos variables o que cambian
constantemente en un prototipo, en aquellos casos en los que producir gran cantidad de chips
PROM resultaría prohibitivo. Los chips EPROM se diferencian de los PROM por el hecho de que
pueden borrarse por lo general, retirando una cubierta protectora de la parte superior del chip
y exponiendo el material semiconductor a radiación ultravioleta, después de lo cual pueden
reprogramarse.
Microcontrolador
Un microprocesador no es un ordenador completo. No contiene grandes cantidades de
memoria ni es capaz de comunicarse con dispositivos de
entrada —como un teclado, un joystick o un ratón— o
dispositivos de salida como un monitor o una impresora. Un
tipo
diferente
de
circuito
integrado
llamado
microcontrolador es de hecho una computadora completa
situada en un único chip, que contiene todos los elementos
del microprocesador básico además de otras funciones
especializadas. Los microcontroladores se emplean en
videojuegos, reproductores de vídeo, automóviles y otras
máquinas.
Semiconductores.
Todos los circuitos integrados se fabrican con semiconductores, sustancias cuya
capacidad de conducir la electricidad es intermedia entre la de un conductor y la de un
no conductor o aislante. El silicio es el material semiconductor más habitual. Como la
conductividad eléctrica de un semiconductor puede variar según la tensión aplicada al
mismo, los transistores fabricados con semiconductores actúan como minúsculos
conmutadores que abren y cierran el paso de corriente en sólo unos pocos nanosegundos
(milmillonésimas de segundo). Esto permite que un ordenador pueda realizar millones
de instrucciones sencillas cada segundo y ejecutar rápidamente tareas complejas.
El bloque básico de la mayoría de los dispositivos semiconductores es el diodo, una
unión de materiales de tipo negativo (tipo n) y positivo (tipo p). Los términos "tipo n" y
"tipo p" se refieren a materiales semiconductores que han sido dopados, es decir, cuyas
propiedades eléctricas han sido alteradas mediante la adición controlada de
pequeñísimas concentraciones de impurezas como boro o fósforo. En un diodo, la
corriente eléctrica sólo fluye en un sentido a través de la unión: desde el material de tipo
p hasta el material de tipo n, y sólo cuando el material de tipo p está a una tensión
superior que el de tipo n. La tensión que debe aplicarse al diodo para crear esa
condición se denomina tensión de polarización directa. La tensión opuesta que hace que
no pase corriente se denomina tensión de polarización inversa.
Un circuito integrado contiene millones de uniones p-n, cada una de las cuales cumple
una finalidad específica dentro de los millones de elementos electrónicos de circuito. La
colocación y polarización correctas de las regiones de tipo p y tipo n hacen que la
corriente eléctrica fluya por los trayectos adecuados y garantizan el buen
funcionamiento de todo el chip.
Transistores
El transistor empleado más comúnmente en la
industria microelectrónica se denomina transistor de
efecto de campo de metal-óxido-semiconductor
(MOSFET, siglas en inglés). Contiene dos regiones
de tipo n, llamadas fuente y drenaje, con una región
de tipo p entre ambas, llamada canal. Encima del
canal se encuentra una capa delgada de dióxido de
silicio, no conductor, sobre la cual va otra capa llamada puerta. Para que los electrones
fluyan desde la fuente hasta el drenaje, es necesario aplicar una tensión a la puerta
(tensión de polarización directa). Esto hace que la puerta actúe como un conmutador de
control, conectando y desconectando el MOSFET y creando una puerta lógica que
transmite unos y ceros a través del microprocesador.
Fabricación de Microprocesadores
Los microprocesadores se fabrican empleando técnicas similares a las usadas para otros
circuitos integrados, como chips de memoria. Generalmente, los microprocesadores
tienen una estructura más compleja que otros chips, y su fabricación exige técnicas
extremadamente precisas.
La fabricación económica de microprocesadores exige su producción masiva. Sobre la
superficie de una oblea de silicio se crean simultáneamente varios cientos de grupos de
circuitos. El proceso de fabricación de microprocesadores consiste en una sucesión de
deposición y eliminación de capas finísimas de materiales conductores, aislantes y
semiconductores, hasta que después de cientos de pasos se llega a un complejo
"bocadillo" que contiene todos los circuitos interconectados del microprocesador. Para
el circuito electrónico sólo se emplea la superficie externa de la oblea de silicio, una
capa de unas 10 micras de espesor (unos 0,01 mm, la décima parte del espesor de un
cabello humano). Entre las etapas del proceso figuran la creación de sustrato, la
oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas.
La primera etapa en la producción de un microprocesador es la creación de un sustrato
de silicio de enorme pureza, una "rodaja" de silicio en forma de una oblea redonda
pulida hasta quedar lisa como un espejo. En la actualidad, las obleas más grandes
empleadas en la industria tienen 200 mm de diámetro.
En la etapa de oxidación se coloca una capa eléctricamente no conductora, llamada
dieléctrico. El tipo de dieléctrico más importante es el dióxido de silicio, que se
"cultiva" exponiendo la oblea de silicio a una atmósfera de oxígeno en un horno a unos
1.000 ºC. El oxígeno se combina con el silicio para formar una delgada capa de óxido
de unos 75 angstroms de espesor (un ángstrom es una diezmilmillonésima de metro).
Casi todas las capas que se depositan sobre la oblea deben corresponder con la forma y
disposición de los transistores y otros elementos electrónicos. Generalmente esto se
logra mediante un proceso llamado fotolitografía, que equivale a convertir la oblea en
un trozo de película fotográfica y proyectar sobre la misma una imagen del circuito
deseado. Para ello se deposita sobre la superficie de la oblea una capa fotosensible
cuyas propiedades cambian al ser expuesta a la luz. Los detalles del circuito pueden
llegar a tener un tamaño de sólo 0,25 micras.
Como la longitud de onda más corta de la luz visible es de unas 0,5 micras, es necesario
emplear luz ultravioleta de baja longitud de onda para resolver los detalles más
pequeños. Después de proyectar el circuito sobre la capa fotorresistente y revelar la
misma, la oblea se graba: esto es, se elimina la parte de la oblea no protegida por la
imagen grabada del circuito mediante productos químicos (un proceso conocido como
grabado húmedo) o exponiéndola a un gas corrosivo llamado plasma en una cámara de
vacío especial.
En el siguiente paso del proceso, la implantación iónica, se introducen en el silicio
impurezas como boro o fósforo para alterar su conductividad. Esto se logra ionizando
los átomos de boro o de fósforo (quitándoles uno o dos electrones) y lanzándolos contra
la oblea a elevadas energías mediante un implantador iónico. Los iones quedan
incrustados en la superficie de la oblea.
En el último paso del proceso, las capas o películas de material empleadas para fabricar
un microprocesador se depositan mediante el bombardeo atómico en un plasma, la
evaporación (en la que el material se funde y posteriormente se evapora para cubrir la
oblea) o la deposición de vapor químico, en la que el material se condensa a partir de un
gas a baja presión o a presión atmosférica. En todos los casos, la película debe ser de
gran pureza, y su espesor debe controlarse con una precisión de una fracción de micra.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de
polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación
de microprocesadores se denominan salas limpias, porque el aire de las mismas se
somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias
más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo
de partículas mayores de 0,12 micras que puede haber en un pie cúbico de aire (0,028
metros cúbicos). Como comparación, un hogar normal sería de clase 1 millón.
Historia del Microprocesador
El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló
originalmente para una calculadora, y resultaba revolucionario para su época. Contenía
2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000
operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008,
desarrollado en 1979 para su empleo en terminales informáticos. El Intel 8008 contenía
3.300 transistores. El primer microprocesador realmente diseñado para uso general,
desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía
ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen
una capacidad y velocidad mucho mayores. Entre ellos figuran el Intel Pentium Pro, con
5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4
millones de transistores; el PowerPC G4, desarrollado conjuntamente por Apple, IBM y
Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment
Corporation, con 9,3 millones de transistores.
Tecnologías Futuras
La tecnología de los microprocesadores y de la fabricación de circuitos integrados está
cambiando rápidamente. Se prevé que en 2010 los microprocesadores avanzados
contengan unos 800 millones de transistores.
Se cree que el factor limitante en la potencia de los microprocesadores acabará siendo el
comportamiento de los propios electrones al circular por los transistores. Cuando las
dimensiones se hacen muy pequeñas, los efectos cuánticos debidos a la naturaleza
ondulatoria de los electrones podrían dominar el comportamiento de los transistores y
circuitos. Puede que sean necesarios nuevos dispositivos y diseños de circuitos a medida
que los microprocesadores se aproximan a dimensiones atómicas. Para producir las
generaciones futuras de microchips se necesitarán técnicas como la epitaxia por haz
molecular, en la que los semiconductores se depositan átomo a átomo en una cámara de
vacío ultraelevado, o la microscopía de barrido de efecto túnel, que permite ver e
incluso desplazar átomos individuales con precisión.
La Memoria Caché
La memoria caché es una memoria especial de acceso muy rápido. Almacenar los datos y el
código utilizados en las últimas operaciones del procesador. Habitualmente el ordenador
realiza la misma operación repetidas veces seguidas. Si en lugar de, por ejemplo, leer del disco
cada una de las veces que realiza la operación lee de la memoria se incrementa la velocidad
de proceso un 1.000.000 veces, es la diferencia de nanosegundos a milisegundos que son los
tiempos de acceso a memoria y a disco respectivamente. Las placas base generalmente tienen
instalada la memoria caché en unos zócalos para poder ampliarla. La configuración más usual
es la de 512 Kb en la actualidad, pero puede haber configuraciones de 1 Mb o 2 Mb en algunas
placas (hoy día sólo en los procesadores tipo Pentium (Pentium MMX, K6-x), ya que el Pentium
II/II y el K7 la llevan integrada dentro de él).
A la hora de la verdad, el rendimiento no es tan grande en los módulos Pipeline de las placas
Pentium. Aunque por 3.000 ptas, no es mala idea incrementar la caché de 256 a 512 Kb en las
placas Pentium más antiguas.
El chipset
El juego de chips de una placa, o chipset, es posiblemente su componente integrado más
importante, ya que controla el modo de operación de la placa e integra todas sus funciones, por
lo que podemos decir que determina el rendimiento y características de la misma. Determina lo
que puede hacer el ordenador, desde el soporte para varias CPU, hasta la velocidad del bus o
el tipo de memoria que se puede utilizar. Es el encargado de comunicar entre sí a todos los
componentes de la placa, y los periféricos. Una placa puede disponer de zócalos DIMM, pero si
el chipset incluido no los soporta, no podrán utilizarse. Intel fabrica los modelos oficiales para
sus procesadores, aunque otras marcas como VIA, SUS o ALI fabrican clónicos a un precio
más reducido.
En el caso del Pentium ha habido un gran grupo de chipsets, no sólo los Tritón, sino los Zappa,
Endeavour... Hoy día sólo se encuentra el chipset Tritón TX, que es el más recomendado, ya
que el VX, además de ser bastante antiguo, no soporta características como el DMA 33. Estos
dos chipsets optimizan el rendimiento de la memoria EDO, soportan la técnica Bus Master, que
mejora los procesos de transferencia de datos, módulos DIMM de 168 contactos y memoria
SDRAM, y admiten la arquitectura SMBA (Shared Memory Buffer Architecture), que permite
gestionar la memoria de forma compartida. Las placas Super 7 (las actuales) disponen de
varios modelos, como los conocidos VIA Apollo MVP3, o Alladin V de ALI, con menor soporte
de tipos de RAM.
En el caso del Pentium II nos encontramos con 4 chipsets: FX, LX, BX y EX (en un futuro el
NX, que será el que use Katmai con MMX y 500 MHz). El FX fue el primero que apareció y
ocasionaba un gran cuello de botella. Todos los impacientes que se compraron una placa base
de éstas la tuvieron que cambiar. Por tanto ¡que no te "encasqueten" una!. Hay que usar el bus
LX para los modelos de 233 a 333 MHz y el BX desde el 350 al 400 MHz (este último es de 100
MHz). Es cierto que el BX soporta los modelos del LX, pero también es más caro. Y por último,
el chipset EX es el que se usa en el microprocesador Intel Celeron, y lo tendremos que adquirir
en caso de comprar este procesador. El modelo ZX es muy utilizado por las CPU Socket 370.
Elimina el soporte para varias CPU, reconoce el bus a 100 MHz, y reduce la memoria máxima a
256 Megas.
El modelo 440GX se encuentra en las placas Slot 2. Puesto que también soporta los
procesadores Slot 1, puede llegar a sustituir al actual BX. VIA, SIS y ALI también venden
clónicos de estos modelos, como el Apollo Pro Plus o el Alladin Pro.
Otros factores importantes
Hay otros detalles a tener en cuenta; por ejemplo, ya es común la inclusión de un conector para
ratones y teclados de tipo PS/2 (ya sabéis, los que tienen la clavija pequeña y redonda), de
puertos infrarrojos (que permiten la comunicación, sin cables, con dispositivos de este tipo) y
USA, o Bus Serie Universal, que permite conectar 127 dispositivos con una transferencia de
datos media-baja (webcams, escáneres, monitores...) a 12 Mbps y totalmente Plug and Play.
Dentro de poco aparecerá el 1394, y tienes un artículo en el WEB de Duiops para informarte
todo lo que quieras.
Algunos modelos incorporan diversos añadidos, como la inclusión de un chip de aceleración
gráfica 3D de Intel, una tarjeta de sonido Yamaha o una controladora SCSI. No son
aconsejables, pues disponen de menos calidad que los periféricos adquiridos
independientemente. También pueden encontrarse chips que miden la temperatura del
procesador y el ventilador, y BIOS capaces de controlar la desconexión temporal de periféricos,
cuando no se utilizan, para ahorrar energía.
Otro detalle que se suele olvidar, pero que no carece de importancia, lo tenemos en el software
que debe acompañar a la placa, los omnipresentes drivers; ya que se recomiendan para
dispositivos como la controladora de disco duro.
Y ya por último hablaremos sobre el formato de la placa. El que ha habido siempre ha sido el
Baby-AT, y desde finales del 1996 podemos encontrar el ATX. No mejorará la velocidad, sino la
flexibilidad, integración y funcionalidad. Reorganiza la distribución de los componentes de la
placa base, de forma que al insertar tarjetas no se tropiecen con chips como el procesador.
Además, se acorta la longitud de los cables y se mejora la ventilación de los componentes.
También cambia el conector de alimentación para la placa base y la forma de la caja, por lo
que tendremos que cambiar la caja externa antes de comprar la placa. El ATX permite integrar
componentes en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen tener una
calidad bastante mediocre. Por tanto, si queremos instalar tarjeta gráfica y de sonido
independientes, tendremos que buscar una placa base ATX sin estos componentes integrados
en ella.
El disco duro.
INTRODUCCION
Siempre que se enciende el computador, los discos sobre los que se almacenan los datos
giran a una gran velocidad (a menos que disminuyan su potencia para ahorrar
electricidad).
Los discos duros de hoy, con capacidad de almacenar multigigabytes mantienen el
mínimo principio de una cabeza de Lectura/Escritura suspendida sobre una superficie
magnética que gira velozmente con precisión microscópica.
Pero hay un aspecto de los discos duros que probablemente permanecerá igual. A
diferencia de otros componentes de la PC que obedecen a los comandos del software, el
disco duro hace ruidos cuando emprende su trabajo. Estos ruidos son recordatorio de
que es uno de los pocos componentes de una PC que tiene carácter mecánico y
electrónico al mismo tiempo
Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento
secundario. Al disco duro se le conoce con gran cantidad de denominaciones como
disco duro, rígido (frente a los discos flexibles o por su fabricación a base de una capa
rígida de aluminio), fijo (por su situación en el ordenador de manera permanente). Estas
denominaciones aunque son las habituales no son exactas ya que existen discos de
iguales prestaciones pero son flexibles, o bien removibles o transportables, u otras
marcas diferentes fabricantes de cabezas.
Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y
grandes ordenadores. Para conectar un disco duro a un ordenador es necesario disponer
de una tarjeta controladora. La velocidad de acceso depende en gran parte de la
tecnología del propio disco duro y de la tarjeta controladora asociada al discos duro.
Estos están compuestos por varios platos, es decir varios discos de material magnético
montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos
platos se usan las cabezas de lectura/escritura que mediante un proceso
electromagnético codifican / decodifican la información que han de leer o escribir. La
cabeza de lectura/escritura en un disco duro está muy cerca de la superficie, de forma
que casi vuela sobre ella, sobre el colchón de aire formado por su propio movimiento.
Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo
puede dañarlos.
Unidad de disco duro:
Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente
de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes
con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer
cilindro) y terminan en la parte interior (último). Asimismo estos cilindros se dividen en
sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos
ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con
una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada
cilindro se reserva para propósitos de identificación mas que para almacenamiento de
datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del
almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen
más de una unidad en su interior, por lo que el número de caras puede ser más de 2.
Estas se identifican con un número, siendo el 0 para la primera. En general su
organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el
número de caras por el de pistas por cara y por el de sectores por pista, al total por el
número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso
de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido
de la corriente, así será la polaridad de la celda. ara leer, se mide la corriente inducida
por el campo magnético de la celda. Es decir que al pasar sobre una zona detectará un
campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si
en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el
inverso, la cabeza recibe una corriente que provoca un campo magnético, el cual pone la
posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del
campo magnético provocado por dicha corriente.
Los componentes físicos de una unidad de disco duro son:
LOS DISCOS (Platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio finalmente pulidos y
revestidos por ambos lados con una capa muy delgada de una aleación metálica. Los
discos están unidos a un eje y un motor que los hace guiar a una velocidad constante
entre las 3600 y 7200 RPM. Convencionalmente los discos duros están compuestos por
varios platos, es decir varios discos de material magnético montados sobre un eje
central. Estos discos normalmente tienen dos caras que pueden usarse para el
almacenamiento de datos, si bien suele reservarse una para almacenar información de
control.
LAS CABEZAS (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos
en los discos. La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a
cada lado del disco, sin embargo algunos discos de alto desempeño tienen dos o más
cabezas sobre cada superficie, de manera que cada cabeza atiende la mitad del disco
reduciendo la distancia del desplazamiento radial. Las cabezas de Lectura/Escritura no
tocan el disco cuando este esta girando a toda velocidad; por el contrario, flotan sobre
una capa de aire extremadamente delgada(10 millonésima de pulgada). Esto reduce el
desgaste en la superficie del disco durante la operación normal, cualquier polvo o
impureza en el aire puede dañar suavemente las cabezas o el medio. Su funcionamiento
consiste en una bobina de hilo que se acciona según el campo magnético que detecte
sobre el soporte magnético, produciendo una pequeña corriente que es detectada y
amplificada por la electrónica de la unidad de disco.
EL EJE
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran
los platos del disco.
"ACTUADOR" (actuator)
Es un motor que mueve la estructura que contiene las cabezas de lectura entre el centro
y el borde externo de los discos. Un "actuador" usa la fuerza de un electromagneto
empujado contra magnetos fijos para mover las cabezas a través del disco. La
controladora manda más corriente a través del electromagneto para mover las cabezas
cerca del borde del disco. En caso de una perdida de poder, un resorte mueve la cabeza
nuevamente hacia el centro del disco sobre una zona donde no se guardan datos. Dado
que todas las cabezas están unidas al mismo "rotor" ellas se mueven al unísono.
Mientras que lógicamente la capacidad de un disco duro puede ser medida según los
siguientes parámetros:
Cilindros (cylinders)
El par de pistas en lados opuestos del disco se llama cilindro. Si el HD contiene
múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno
encima de otra (2n pistas). Los HD normalmente tienen una cabeza a cada lado del
disco. Dado que las cabezas de Lectura/Escritura están alineadas unas con otras, la
controladora puede escribir en todas las pistas del cilindro sin mover el rotor. Como
resultado los HD de múltiples discos se desempeñan levemente más rápido que los HD
de un solo disco.
Pistas (tracks)
Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas
se mueven entre la pista más externa ó pista cero a la mas interna. Es la trayectoria
circular trazada a través de la superficie circular del plato de un disco por la cabeza de
lectura / escritura. Cada pista está formada por uno o más Cluster.
Sectores (sectors)
Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los
datos en pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512
bytes. La controladora del H D determina el tamaño de un sector en el momento en que
el disco es formateado. Algunos modelos de HD le permiten especificar el tamaño de un
sector. Cada pista del disco esta dividida en 1 ó 2 sectores dado que las pistas exteriores
son más grandes que las interiores, las exteriores contienen mas sectores.
Distribución de un disco duro
Cluster
Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La
siguiente tabla nos muestra esta relación.
Tipo de FAT
Sectores por
Cluster
Tamaño del Cluster
Kb
Tamaño del Drive
MB
bits
0 –15
12
8
4
16-127
16
4
2
128-255
16
8
4
256-511
16
16
8
512-1023
16
32
16
1024-2048
16
64
32
MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD
Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de
búsqueda, latencia y transferencia. Estas medidas también aparecen en las advertencias,
comparaciones y en las especificaciones. Tiempo de acceso ( access time) Termino
frecuentemente usado en discusiones de desempeño, es el intervalo de tiempo entre el
momento en que un drive recibe un requerimiento por datos, y el momento en que un
drive empieza a despachar el dato. El tiempo de acceso de un HD es una combinación
de tres factores:
1- Tiempo de Búsqueda (seek time)
Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición
actual hasta la pista donde esta localizada la información deseada. Como la pista
deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el
tiempo de búsqueda variara en cada búsqueda. En la actualidad, el tiempo promedio de
búsqueda para cualquier búsqueda arbitraria es igual al tiempo requerido para mirar a
través de la tercera parte de las pistas. Los HD de la actualidad tienen tiempos de
búsqueda pista a pista tan cortos como 2 milisegundos y tiempos promedios de
búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje completo
entre la pista más interna y la más externa) cercano a 15 milisegundos .
2- Latencia (latency)
Cada pista en un HD contiene múltiples sectores una vez que la cabeza de
Lectura/Escritura encuentra la pista correcta, las cabezas permanecen en el lugar e
inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera se llama
latencia. La latencia promedio es igual al tiempo que le toma al disco hacer media
revolución y es igual en aquellos drivers que giran a la misma velocidad. Algunos de los
modelos más rápidos de la actualidad tienen discos que giran a 10000 RPM o más
reduciendo la latencia.
3- Command Overhead
Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye
determinar la localización física del dato en el disco correcto, direccionar al "actuador"
para mover el rotor a la pista correcta, leer el dato, redireccionarlo al computador.
Transferencia
Los HD también son evaluados por su transferencia, la cual generalmente se refiere al
tiempo en la cual los datos pueden ser leídos o escritos en el drive, el cual es afectado
por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso. La
mayoría de los HD actuales incluyen una cantidad pequeña de RAM que es usada como
cache o almacenamiento temporal. Dado que los computadores y los HD se comunican
por un bus de Entrada/Salida, el tiempo de transferencia actual entre ellos esta limitado
por el máximo tiempo de transferencia del bus, el cual en la mayoría de los casos es
mucho más lento que el tiempo de transferencia del drive.
COMO FUNCIONA UN DISCO DURO.
1. Una caja metálica hermética protege los componentes internos de las partículas de
polvo; que podrían obstruir la estrecha separación entre las cabezas de lectura/escritura
y los discos, además de provocar el fallo de la unidad a causa de la apertura de un surco
en el revestimiento magnético de un disco. 2. En la parte inferior de la unidad, una placa
de circuito impreso, conocida también como placa lógica, recibe comandos del
controlador de la unidad, que a su vez es controlado por el sistema operativo. La placa
lógica convierte estos comandos en fluctuaciones de tensión que obligan al actuador de
las cabezas a mover estas a lo largo de las superficies de los discos. La placa también se
asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad
constante y de que la placa le indique a las cabezas de la unidad en que momento deben
leer y escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el
controlador de disco forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado
a un motor eléctrico hacen que los discos revestidos magnéticamente giren a varios
miles de vueltas por minuto. El número de discos y la composición del material
magnético que lo s recubre determinan la capacidad de la unidad. Generalmente los
discos actuales están recubiertos de una aleación de aproximadamente la trimillonésima
parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira del grupo
de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos
con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos
sobre la superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los
extremos de los brazos móviles se deslizan a la vez a lo largo de las superficies de los
discos giratorios del HD. Las cabezas escriben en los discos los datos procedentes del
controlador de disco alineando las partículas magnéticas sobre las superficies de los
discos; las cabezas leen los datos mediante la detección de las polaridades de las
partículas ya alineadas. 6. Cuando el usuario o su software le indican al sistema
operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del
HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de
la unidad, o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT
para determinar en que Cluster del disco comienza un archivo preexistente, o que zonas
del disco están disponibles para albergar un nuevo archivo. 7. Un único archivo puede
diseminarse entre cientos de Cluster independientes dispersos a lo largo de varios
discos. El sistema operativo almacena el comienzo de un archivo en los primeros
Cluster que encuentra enumerados como libres en la FAT. Esta mantiene un registro
encadenado de los Cluster utilizados por un archivo y cada enlace de la cadena conduce
al siguiente Cluster que contiene otra parte mas del archivo. Una vez que los datos de la
FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la
unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para
que omita la operación de las cabezas de lectura/escritura a lo largo de la superficie de
los discos, leyendo o escribiendo los Cluster sobre los discos que giran después de las
cabezas. Después de escribir un nuevo archivo en el disco, el sistema operativo vuelve a
enviar las cabezas de lectura/escritura a la FAT, donde elabora una lista de todos los
Cluster del archivo.
INTERFAZ ENHANCED INTEGRATED DRIVE ELECTRONICS (EIDE)
La norma IDE fue desarrollada por Western Digital y Compaq Computers a partir de
una interfaz de disco del AT original que IBM creó en 1984. Desde entonces se
convirtió en la interfaz más utilizada en el entorno PC. A pesar de esto IDE presenta
unas limitaciones debido a su dependencia de la BIOS y al diseño del que parte. Hace
poco las limitaciones en el tamaño de los HD y la velocidad de transferencia no daban
problemas, pero como se han mejorado los procesadores y han salido programas más
complejos, ya se notan.
Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto
la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la
interfaz establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI
(ATA Packed Interfaz), que permite conectar unidades de CD-ROM a controladores
ATA.
ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el
tipo de periférico que prestan las E/S); según su esquema de translación de direcciones
se pueden encontrar dos métodos en ATA-2:
- Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se
transforman los parámetros de CHS de la Bios en los de la unidad. Como ventaja tiene
su sencillez.
- Mediante LBA(Logical Block Address). Consiste en transformar los parámetros CHS
en una dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de
los dispositivos, etc.
En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528
Mb.
Ventajas De Enhanced IDE:
*Máximo cuatro dispositivos conectados
*Soporta CD-ROM y cinta
*Transparencia de hasta 16.6 Mbps
*Capacidad máxima de 8.4 Gbytes
Velocidades en ATA-2
*11.1 con PIO Modo3
*13.3 Mbps con DMA Modo1
*16.6 Mbps con PIO Modo4
DEFINICIONES DE TERMINOS
ATA (AT Attachment), dispositivo de AT. Es el dispositivo IDE que más se usa en la
actualidad, por los que a veces se confunde con el propio IDE. Originalmente se creó
para un bus ISA de 16 bits.
ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión
del protocolo ATA para conseguir una serie de comandos y registros que controlen el
funcionamiento de un CD-ROM, es fácilmente adaptable para una cinta de Backup.
DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente
integrado en un periférico que libera al procesador en la tarea de transferir datos entre
dispositivos y memoria. El acceso se realiza por bloque de datos.</ P>
PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente
encargado de ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la
DMA requiere atención del procesador para su funcionamiento. Como contrapartida es
mucho más sencillo y barato.
Controladoras
La interface es la conexión entre el mecanismo de la unidad de disco y el bus del
sistema. Define la forma en que las señales pasan entre el bus del sistema y el disco
duro. En el caso del disco, se denomina controladora o tarjeta controladora, y se encarga
no sólo de transmitir y transformar la información que parte de y llega al disco, sino
también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las
órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la
placa madre.
Se encuentran gobernados por una controladora y un determinado interface que puede
ser:
· ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s.
Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por
segundo. Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo
de interface.
· ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506
pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por
segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar.
· IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a
los AT y que usa una variación sobre el bus de expansión del AT (por eso también
llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor
máximo de transferencia de 4 Mbytes por segundo. En principio, IDE era un término
genérico para cualquier interface a nivel de sistema. La especificación inicial de este
interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI
pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI
y el SCSI-2.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto
que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la
compañía Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba
la tecnología superando el límite de acceso a particiones mayores de 528 Mb. y se
definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de
cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como
contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2,
basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o
bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia.
Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias
soluciones:
* El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros,
cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo
lectura (Firmware) que incorpora la unidad de disco.
* El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una
dirección de 28 bits manejables por el sistema operativo, para el controlador de
dispositivo y para la interfaz de la unidad.
Debido a la dificultad que entraña la implemetación de la compatibilidad LBA en BIOS,
muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo
únicamente compatibilidad con CHS. El techo de la capacidad que permite las solución
CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes.
· SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito
general, que permite que se conecten hasta siete dispositivos a un único controlador.
Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5
Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más
que una versión actualizada y mejorada de este interface. Es el interface con más futuro,
si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras,
discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este
interface debido a la falta de un estándar verdaderamente sólido.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a
través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos.
Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos.
Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de
hasta 40 Mbytes / seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el
controlador realmente no suele ser mas que un adaptador principal para conectar el
disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel
de sistema, la diferencia entre ambos es:
INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador
externo para conectar discos al PC. Entre otras funciones, el controlador convierte la
ristra de datos del disco en datos paralelos para el bus del microprocesador principal del
sistema. ST506 y ESDI son interfaces a nivel de dispositivo.
INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su
sistema principal que pone funciones de control y separación de datos sobre el propio
disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema.
Distribución de la Información : Grabación y Acceso.
Para grabar información en la superficie, se siguen una serie de códigos, que
transforman un patrón de bits en una secuencia de celdas con diferentes estados de
magnetización.
Procesos de grabación
· GCR (Group Coding Recording - Codificación de grupo de grabación) Es un
proceso de almacenamiento en el que los bits se empaquetan como grupos y son
almacenados bajo un determinado código.
· ZBR (Zone Bit Recording) Es un proceso de almacenamiento que coloca más
sectores sobre las pistas exteriores del disco que son más largas, pero mantienen un
valor constante de rotación. Esta diseñado para colocar más datos sobre el disco, sólo
puede usarse con interfaces inteligentes.
Proceso de Codificación
· FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo
para cada uno, y el omitir el cambio de flujo para cada cero. Este procedimiento se
puede realizar con una electrónica de control relativamente simple, pero tiene el
inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho
la capacidad del disco.
· MFM (Modified Frequency Modulation - Modulación de frecuencia modificada)
Método de codificación magnética de la información que crea una correspondencia 1 a
1 entre los bits de datos y transiciones de flujo (cambios magnéticos) sobre un disco.
Emplea una menor densidad de almacenamiento y presenta una velocidad más baja de
transferencia que el RLL.
Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit
de datos es almacenado sobre una región física lo suficientemente grande para contener
2 posibles posiciones 00, 01 ó 10. Entre cada 2 bits de datos hay un bit que se llama de
"reloj" y que se usa para validar las lecturas, así como para sincronizarlas. Este bit hace
que sea uno cuando está situado entre 2 bits de datos a cero y se hace cero cuando está
situado entre cualquier otra combinación de bits de datos. Así se hace imposible que se
puedan leer más de 3 bits consecutivos con un valor de cero, o mas de un bit seguido a
uno. Esto es cierto para todas las informaciones almacenadas en el disco excepto para
las áreas de control del mismo cuyas marcas de comienzo de pista, sector y datos tienen
4 bits consecutivos a cero en su "adress mark". Evidentemente, estos sistemas, aunque
fiables, son unos grandes consumidores de espacio ya que emplean prácticamente la
mitad del espacio en bits de reloj.
· RLL: (Run Length Limited - Longitud recorrido limitado) Método de codificar la
información magnéticamente que usa GCR para almacenar bloques en vez de bits
individuales de datos. Permite densidades mayores de almacenamiento y velocidades
mas altas de transferencia que MFM. En la práctica, permite incrementar en un 50% la
capacidad de un disco respecto al sistema de grabación MFM. Los métodos de
grabación RLL utilizan un conjunto complejo de reglas para determinar el patrón de
pulsos para cada bit basado en los valores de los bits precedentes. Este sistema se puede
clasificar dependiendo de la distancia máxima y mínima de silencios entre dos pulsos,
por ejemplo; el RLL 2,7 tiene una distancia mínima entre pulsos de 2 silencios y una
máxima de 7.
Datos de control del disco
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca
que existan determinados sectores que son defectuosos.
En los antiguos discos estos sectores venían apuntados por el control de calidad del
fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al
programa formateador. En los modernos, las direcciones de estos sectores se graban en
pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos
sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí
donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones.
Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de
sectores defectuosos es mínimo, prácticamente no tiene importancia.
Hay que tener en cuenta que no toda la información que se encuentra en la superficie de
los discos son datos, existen zonas donde se almacena información de control.
Entre la información que se encuentran dentro de un sector:
· Numero de sector y cilindro
· El ECC (Error Correction Code) DATA.
· La zona de datos
· Zonas de separación entre zonas o entre pistas
También existen pistas extra donde se recogen otras informaciones como:
· Pistas "servo" donde se guardan cambios de flujo según un esquema determinado,
para la sincronización al pulso de datos, necesario para la correcta compresión de las
informaciones en RLL.
· Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.
· Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del
cabezal con la superficie con datos ante vibraciones o golpes de la unidad.
Tiempos de acceso, Velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros que son
necesarios conocer para comprender su funcionamiento y sus diferencias.
· Tiempo de búsqueda de pista a pista : intervalo de tiempo necesario para desplazar
la cabeza de lectura y escritura desde una pista a otra adyacente.
· Tiempo medio de acceso : tiempo que tarda, como media, para desplazarse la cabeza
a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es
equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro.
El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT
usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUMÒ
usan discos de menos de 20 milisegundos.
· Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.
· Latencia Promedio : Es el promedio de tiempo para que el disco una vez en la pista
correcta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media
vuelta. Velocidad de transferencia : velocidad a la que los datos (bits) pueden
transferirse desde el disco a la unidad central. Depende esencialmente de dos factores :
la velocidad de rotación y la densidad de almacenamiento de los datos en una pista
3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)
Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos
Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados
anteriormente sería:
T.MAcceso Rotación
Latencia
V.Transfrencia
FD 360k 6-12 mls
93 mls
300 rpm
100 mls
125-250 Kb / seg
HD AT 8-10 mls
30
40-28 mls
3600 rpm
8,3 mls
1-5 Mb / seg
T.Pista
El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de
pistas por pulgada (que a su vez depende de factores como el tamaño de los dominios
magnéticos) y de la velocidad y la precisión de los engranajes del cabezal. La latencia
depende de la velocidad de rotación y equivale a la mitad del tiempo que tarda el disco
en describir un giro completo. El rendimiento total también depende de la disposición
de los dominios magnéticos, uso de ZBR.
Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco
o velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad
unos 3600 rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco
más rápidas para PC giran a 5400 rpm (un 50% más rápidas) y por tanto su latencia es
de 5,6 milisegundos. Algunos discos siguen usando los 3600 rpm para consumir menos
energía.
RPM
3600
1 Vuelta cada
16,66 mseg.
Latencia
8,33 mseg.
4500
13,33 mseg.
6,66 mseg.
5400
11,11 mseg.
5,55 mseg.
7200
8,33 mseg.
4,16 mseg.
10000
6,00 mseg.
3,00 mseg.
El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que
a esta velocidad la disipación del calor se concierte en un problema. El segundo es que
exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales
motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de
fiabilidad, se quemarían demasiado rápido.
Además de todas estas características de velocidades y tiempos de acceso de los discos
duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así
como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión.
Una de las técnicas más conocidas en la informática para hacer esto es la del uso de
memorias intermedias, buffers o cachés.
· Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco,
que almacena el contenido de una pista completa. Así cuando se hace una petición de
lectura de una pista, esta se puede leer de una sola vez, enviando la información a la
CPU, sin necesidad de interleaving.
· Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o
bien a través de programas usar la memoria central. La gestión de esta memoria es
completamente invisible y consiste en almacenar en ella los datos más pedidos por la
CPU y retirar de ella aquellos no solicitados en un determinado tiempo. Se usan para
descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad.
Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren
los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden
emplear 4 métodos:
· Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los
diferentes puerto I/O de la controladora que también sirven para la transmisión de
comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC,
y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el
modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los
discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg.
· Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma
más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la
transferencia de los datos a una zona de memoria del programa correspondiente con la
introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo
es de 8 Mbytes / seg.
· DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la
CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras
tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de
ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo.
· Bus Master DMA: En esta técnica la controladora del disco duro desconecta la
controladora del bus y transfiere los datos con la ayuda de un cotrolador Bus Master
DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por
segundo.
Últimas Tecnologías y Tendencias
La aceleración del los nuevos disco IDE se basan en dos métodos:
· Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA "
Canal de e/s preparado" se acelera el control PIO. Gracias al control de flujo, la parte
electrónica de la unidad de disco puede regular las funciones de transferencia de datos
del microprocesador, y el disco duro puede comunicarse con el bus a mayor velocidad
de manera fiable. El standard PIO modo 3 tiene una transferencia teórica máxima de
11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5
promete hasta 33 Mbytes / seg.
· El otro método alternativo denominado FAST Multiword DMA con el controlador
DMA (acceso directo a memoria) sustituye al procesador en el gobierno de las
transferencias de datos entre el disco duro y la memoria del sistema. SSF define que el
Modo 1 de transferencias DMA soporte velocidades internas de hasta 13,3 Mbps, lo que
es equiparable a los resultados del control PIO en modo 3.
Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas
tecnologías y campos científicos (mecánica cuántica, aerodinámica, y elevadas
velocidades de rotación). La combinación de estas tecnologías permite que la capacidad
de los discos duros aumente cerca de un 60 % cada año; cada cinco años se multiplica
por diez su capacidad. Los analistas esperan que este ritmo de crecimiento no se
mantenga hasta finales de siglo.
Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la
superficie del disco. Los cabezales pueden escribir y leer dominios magnéticos menores,
cuanto menor sean éstos mayor densidad de datos posible de cada plato. Pero cuanto
más cerca estén los cabezales, mayor será la probabilidad de colisión con la superficie.
Una solución es recubrir el plato con materiales protectores, rediseñar las características
aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por
los cabezales exige perfeccionar los componentes electrónicos, e incluso puede obligar a
ampliar la memoria caché integrada . Además no hay que olvidar que los dominios
menores son estables a las temperaturas de funcionamiento normales. Y todo esto a un
precio competitivo.
Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza
nuevos materiales. Usa cabezales con mejor relación señal /ruido que los de tipo
inductivo, separando los de lectura de los de escritura. Pueden trabajar con dominios
magnéticos menores aumentando la densidad de almacenamiento. Además son menos
sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus
inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante
posibles cargas eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que
emplea el efecto túnel de electrones de la mecánica cuántica.
Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie
magnética de los platos con materiales antiadherentes derivados del carbono. Esto junto
con las técnicas de cabezales de grabación en proximidad, los TRI-PAD (cabezales
trimorfos) y los de contacto virtual permiten acercar los cabezales hasta incluso entrar
ocasionalmente en contacto con la superficie del plato.
A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo
del cabezal respecto a la superficie, usando zonas de seguridad y cierres inerciales en las
cabezas. Así no se necesita una preparación especial de la superficie del plato.
Estructura Lógica De Los Discos Duros
Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se
resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a
los mismos.
En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes
homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema
operativo del Ms-Dos, sería la siguiente:
Sector de Arranque.
Primera tabla de localización de archivos (FAT).
Una o más copias de la FAT.
Directorio Raíz (eventualmente con etiqueta de volumen).
Zona de datos para archivos y subdirectorios.
Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que
por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por
otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia
al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas,
ya que se adaptan individualmente al tamaño del volumen correspondiente
· El Sector de Arranque : Al formatear un volumen, el sector de arranque se crea
siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En
él se encuentra información acerca del tamaño, de la estructura del volumen y sobre
todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el
DOS. A ésta parte se le llama sector de arranque (BOOT).
· La Tabla de Asignación de Ficheros (File Allocation Table) (FAT) : Si el DOS
quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del
volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT.
Cada entrada a esta tabla se corresponde con un número determinado de sectores, que
son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se
llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras
versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters,
correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que
surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16
bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente
se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas
de información.
· Una o más copias de la FAT : El DOS permite a un programa de formateo crear no
sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos
medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los
nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja
de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para
evitar la pérdida de datos.
· El directorio Raíz : La cantidad máxima de entradas en el directorio raíz se limita por
su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una
estructura de datos estática, que no crece si se guardan más y más archivos o
subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de
volumen, se selecciona el tamaño del directorio raíz en relación al volumen.
· La Zona de Datos : Es la parte del disco duro en la que se almacena los datos de un
archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las
estructuras de datos que forman el sistema de archivos del DOS, y del camino que se
lleva desde la FAT hacia los diferentes sectores de un archivo.
Ventajas e Inconvenientes frente a otros sistemas de almacenamiento.
Floppys (Disquetes):
· Ventajas:
- Bajo coste de fabricación.
- Standarización de los formatos; número de cabezas, sectores, cilindros.
- Es extraible y compatibilidad.
· Inconvenientes:


Poca fiabilidad de los datos almacenadas.
Una escasa capacidad de almacenamiento.
Unidades de CD-ROM:
· Ventajas:
- Velocidad de lectura similar a los Discos Duros.
- Gran capacidad a muy bajo coste.
- La cabeza lectora no va incorporada en el disco.
· Inconvenientes:
- Es de sólo lectura.
- El disco únicamente reescribible una sola vez.
- El disco de CD-ROM no lleva los cabezales de lectura / escritura incorporados.
Streamers (Unidades de Cinta):
· Ventajas:
- Seguridad en la grabación de los datos.
- Gran capacidad a bajo coste.
· Inconvenientes:
- Los Discos duros son mucho más rápidos en lectura / escritura, ya que la cinta realiza
una lectura secuencia, mientras que la cabeza lectura de los discos duros se posiciona en
cualquier parte la superficie en tiempos casi despreciable
MEMORIA RAM
· Ventajas:
- Mayor rapidez que los discos duros.
· Inconvenientes:
- Elevado coste en relación a su capacidad.
- La información contenida en la memoria es volátil, mientras que el almacenamiento en
discos duros es estática.
- La memoria de un ordenador es 100 veces menor que la capacidad de los discos duros.
Papel:
· Ventajas:
- Portabilidad.
- Suele deteriorarse con más facilida que un disco duro.
· Inconvenientes:
- No es ecológico,
- Las búsquedas son machismo más lentas.
- El elevado coste en comparación con la capacidad de las páginas de textos,
documentos, etc. Que es capaz de almacenar un disco duro.
ARREGLO REDUNDANTE DE DISCOS INDEPENDIENTES
Que es tecnología RAID?
El concepto de RAID fue desarrollado por un grupo de científicos en la Universidad de
California en Berkley en 1987. Los científicos investigaban usando pequeños HD
unidos en un arreglo (definido como dos o mas HD agrupados para aparecer como un
dispositivo único para el servidor) y compararon el desempeño y los costos de este tipo
de configuración de almacenamiento con el uso de un SLED (Single Large Expensive
Disk), común en aplicac iones de MainFrames.
Su conclusión fue que los arreglos de Hd pequeños y poco costosos ofrecían el mismo o
un mejor desempeño que los SLED. Sin embargo, dado que había mas discos usados en
un arreglo el MTBDL (Mean Time Be fore Data Loss) -calculado dividiendo el MTBF
(Mean Time Between Failures) por el número de discos en el arreglo- sería
inaceptablemente bajo.
Los problemas entonces fueron como manejar el MTBF y prevenir que la falla de un
solo HD causara pérdida de datos en el arreglo. Para mejorar esto, propusieron 5 tipos
de arreglos redundantes, Definiéndolas como RAID Nivel 1 hasta 5. El nivel del RAID
es Simplemente la arquitectura que determina como se logra la redundancia y como los
datos están distribuidos a través de los HD del arreglo.
Adicional al RAID 1 hasta 5, una configuración de arreglo no redundante que emplea
partición de datos (esto es partir los archivos en bloques pequeños y distribuir estos
bloques a través de los HD del arreglo ), esto es conocido como RAID 0.
DEFINICIONES:
RAID 0
También llamado partición de los discos, los datos son distribuidos a través de discos
paralelos. RAID 0 distribuye los datos rápidamente a los usuarios, pero no ofrece mas
protección a fallas de h ardware que un simple disco.
RAID 1
También llamado Disk mirroring provee la mas alta medida de protección de datos a
través de una completa redundancia. Los datos son copiados a dos discos
simultáneamente. La disponibilidad es alta pero el costo también dado que los usuarios
deben comprar dos veces la capacidad de almacenamiento que requieren.
RAID 0/1
Combina Disk mirroring y partición de datos. El resultado es gran disponibilidad al mas
alto desempeño de entrada y de salida para las aplicaciones de negocios mas criticas. A
este nivel como en el RAID 1 los discos so n duplicados. Dado que son relativamente
no costosos, RAID 0/1 es una alternativa para los negocios que necesitan solamente uno
o dos discos para sus datos, sin embargo, el costo puede convertirse en un problema
cuando se requieren mas de dos discos.
RAID 3
Logra redundancia sin mirroring completo. El flujo de los datos es particionado a través
de todos los HD de datos en el arreglo. La información extra que provee la redundancia
esta escrito en un HD dedicado a la parida d. Si cualquier HD del arreglo falla, los datos
perdidos pueden ser reconstruidos matemáticamente desde los miembros restantes del
arreglo. RAID 3 es especialmente apropiado para procesamiento de imagen, colección
de datos científicos , y otras aplicaciones en las cuales grandes bloques de datos
guardados secuencialmente deben ser transferidos rápidamente
RAID 5
Todos los HD en el arreglo operan independientemente. Un registro entero de datos es
almacenado en un solo disco, permitiendo al arreglo satisfacer múltiples requerimientos
de entrada y salida al mismo tiempo. La informaci&oa cute;n de paridad esta distribuida
en todos los discos, aliviando el cuello de botella de acceder un solo disco de paridad
durante operaciones de entrada y salida concurrentes. RAID 5 está bien recomendado
para procesos de transacciones on-line, au tomatización de oficinas, y otras aplicaciones
caracterizadas por gran numero de requerimientos concurrentes de lectura. RAID 5
provee accesos rápidos a los datos y una gran medida de protección por un costo mas
bajo que el Disk Mirro ring
RAID 10
La información se distribuye en bloques como en RAID-0 y adicionalmente, cada disco
se duplica como RAID-1, creando un segundo nivel de arreglo. Se conoce como
"striping de arreglos duplicados". Se requieren, dos canales, dos discos para cada canal
y se utiliza el 50% de la capacidad para información de control. Este nivel ofrece un
100% de redundancia de la información y un soporte para grandes volúmenes de datos,
donde el precio no es un factor importan te. Ideal para sistemas de misión crítica donde
se requiera mayor confiabilidad de la información, ya que pueden fallar dos discos
inclusive (uno por cada canal) y los datos todavía se mantienen en línea. Es apropiado ta
mbién en escrituras aleatorias pequeñas.
RAID 30
Se conoce también como "striping de arreglos de paridad dedicada". La información es
distribuida a través de los discos, como en RAID-0, y utiliza paridad dedicada, como
RAID-3 en un segundo canal. Proporciona u na alta confiabilidad, igual que el RAID10, ya que también es capaz de tolerar dos fallas físicas de discos en canales diferentes,
manteniendo la información disponible. RAID-30 es el mejor para aplicaciones no
interactivas, tales co mo señales de video, gráficos e imágenes que procesan
secuencialmente grandes archivos y requieren alta velocidad y disponibilidad.
RAID 50
Con un nivel de RAID-50, la información se reparte en los discos y se usa paridad
distribuida, por eso se conoce como "striping de arreglos de paridad distribuida". Se
logra confiabilidad de la información, un buen ren dimiento en general y además
soporta grandes volúmenes de datos. Igualmente, si dos discos sufren fallas físicas en
diferentes canales, la información no se pierde. RAID-50 es ideal para aplicaciones que
requieran un almacenami ento altamente confiable, una elevada tasa de lectura y un
buen rendimiento en la transferencia de datos. A este nivel se encuentran aplicaciones
de oficina con muchos usuarios accediendo pequeños archivos, al igual que
procesamiento de transaccion es.
Máximas y mínimas cantidades de HD que se pueden ordenar para los diferentes niveles
de RAID
Nivel de RAID
Mínimo
Máximo
5
3
16
4
3
N/A
3
3
N/A
2
N/A
N/A
1
2
2
0
2
16
0/1
4
16
RAID 0
RAID 1
RAID 10
RAID 3
RAID 5
La tarjeta de video.
Antecedentes
Inicialmente los ordenadores solo se limitaban a ingresar y mostrar datos por tarjetas
perforadas, mediante teclado o primitivas impresoras, que aburrido!, hasta que un día
alguien pensó : ¿Por qué no juntamos de manera alguna especie de televisor al
computador ? para observar la evolución de los procesos y es así que surgen los
monitores, pero estos debían recibir la información de un dispositivo llamado: tarjeta de
video.
Definición
Una tarjeta gráfica o tarjeta de vídeo es una tarjeta de circuito impreso encargada de
transformar las señales eléctricas que llegan desde el microprocesador en información
comprensible y representable por la pantalla del ordenador.
Normalmente lleva chips o incluso un procesador de apoyo para poder realizar
operaciones gráficas con la máxima eficiencia posible, así como memoria para
almacenar tanto la imagen como otros datos que se usan en esas operaciones.
Dos aspectos importantes al considerar el potencial de una tarjeta gráfica son la
resolución que soporta la tarjeta y el numero de colores que es capaz de mostrar
simultáneamente, en la actualidad la mayoría de las tarjetas soportan resoluciones de
1024 x 768 con 24 bits de colores
Tarjeta gráfica PCI S3 Virge
Tarjeta gráfica nVIDIA NV43 AGP (Geforce 6600GT) con disipación del calor por
ventilador
Características

Procesador Gráfico: El encargado de hacer los cálculos y las figuras, debe tener
potencia para que actúe más rápido y de mejor rendimiento.



Disipador: Muy importante para no quemar el procesador, ya que es necesario un
buen sistema de disipación del calor. Sin un buen disipador el procesador gráfico no
aguantaría las altas temperaturas y perdería rendimiento incluso llegando a quemarse.
Memoria de video : La memoria de video, es lo que almacena la información de lo que
se visualiza en la pantalla. Depende de la resolución que queramos utilizar y de la
cantidad de colores que deseemos presentar en pantalla, a mayor resolución y mayor
número de colores más memoria es necesaria.
RAMDAC: Conversor analógico-digital (DAC) de la memoria RAM, empleado en las
tarjetas gráficas para transformar la señal digital con que trabaja el ordenador en una
salida analógica que pueda entender el monitor.
TIPOS DESDE EL PASADO
Fue en 1997 cuando surgió la verdadera revolución del 3D, la compañía 3DFX sacó el
chip gráfico Voodoo, la potencia de cálculo (450.000 triángulos por segundo) y la
cantidad de nuevos efectos que aportaba esta tarjeta (Mip Mapping, Z-Buffering, Antialiasing, Bi-Linear...) la situaban en una posición privilegiada con respecto a las tarjetas
2D/3D de la competencia.
A mediados de 1998 nació la Voodoo2, esta era seis veces más potente que su
antecesora, además incorporaba nuevos efectos (como el Tri-Linear). La resolución en
pantalla que podía emitir también se vió aumentada, ahora era posible mostrar 800x600
e incluso 1024x768 con el modelo Voodoo2 SLI pero seguía necesitando una tarjeta 2D
extra.
Hasta esta época parecía que los adaptadores de vídeo iban a separarse en dos ramas, las
de 3D y las de 2D, ya que las tarjetas que hacían la doble función eran por lo general
más lentas. Pero fue a finales de este mismo año cuando nació la primera tarjeta gráfica
2D/3D que realmente era potente, la NVIDIA TNT (conocida también como la
"Vodoo2 Killer"), su procesador gráfico 3D no tenía nada que envidiar al de la
Voodoo2, de hecho era capaz de mover 6 millones de triángulos por segundo por los tan
solo 3 millones que movía la voodoo2, y además de esto tenía la ventaja añadida de no
necesitar una tarjeta SVGA extra, por lo que rápidamente empezó a comerle terreno en
el mercado.
El panorama en 1999 se dibujaba de la siguiente manera, existían dos grandes
compañías fabricantes de gráficas que prácticamente acaparaban el mercado, estas eran
NVIDIA y 3DFX, la última aprendió de sus errores y el siguiente modelo de tarjeta, la
Voodoo3, ya realizaba
las dos funciones (2D/3D), aunque la compañía 3DFX estaba muy lejos de ser capaz de
competir en potencia y prestaciones con la tarjeta rival de NVIDIA, la TNT2. La
Voodoo3 era capaz de mover 8 millones de triángulos por segundo y la TNT2 9, por lo
que la reina seguía siendo la tarjeta de NVIDIA, además esta contaba con más memoria,
32 Mbytes por los 16 con los que venían las Voodoo3 de gama alta.
Como se puede ver cada vez era más la potencia que generaban estas tarjetas gráficas,
en este punto el puerto PCI que se venía usando para ellas desde hace ya muchos años
empezaba a quedarse corto, para satisfacer estas nuevas necesidades intel desarrollaría
el puerto AGP (Acelerated Graphics Port), este nuevo puerto solucionaría los graves
cuellos de botella que se producían entre el procesador y las tarjetas gráficas. Otro
campo que se vio afectado fué el de la memoria, ahora las tarjetas poseían entre 16 y 32
Mbytes, una auténtica locura si lo comparamos con los 4 Mbytes que se solían poner
hace solo 2 o 3 años atrás.
Pero veamos detalladamente cada una de las tarjetas aparecidas hasta ahora.
MDA
En la primeras computadoras, los gráficos brillaban no existían. Las primeras tarjetas de
vídeo presentaban sólo texto monocromo, generalmente en un agradable tono ámbar o
verde fosforito que dejaba los ojos muy mal en cuestión de minutos. De ahí que se las
denominase MDA, Monochrome Display Adapter.
CGA
Con la llegada de los primeros PCS, surgió una tarjeta de vídeo capaz de presentar
gráficos: la CGA (Computer Graphics Array, dispositivo gráfico para ordenadores). Tan
fantástico invento era capaz de presentar gráficos de varias maneras:
CGA
Resolución (horizontal x vertical) Colores
320x200
4
640x200
2 (monocromo)
Esto, aunque parezca mentira, resultó toda una revolución. Aparecieron multitud de
juegos que aprovechaban al máximo tan exiguas posibilidades, además de programas
más serios, y los gráficos se instalaron para siempre en el PC.
Hércules
Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su ventaja,
poder trabajar con gráficos a 720x348 puntos de resolución, algo alucinante para la
época; su desventaja, que no ofrecía color. Es por esta carencia por la que no se
extendió más, porque jugar sin color no es lo mismo, y el mundo PC avanza de la mano
de los diseñadores de juegos (y va muy en serio).
EGA
Desarrollado por IBM.
EGA
Resolución (horizontal x vertical) Colores
320x200
16
640x200
16
640x350
16
Estas cifras hacían posible que los entornos gráficos se extendieran al mundo de las
computadoras.
VGA
El estándar, la pantalla de uso obligado desde hace ya 10 años. Tiene multitud de modos
de vídeo posibles, aunque el más común es el de 640x480 puntos con 256 colores,
conocido generalmente como "VGA estándar" o "resolución VGA".
SVGA, XGA y superiores
El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del
mismo, siempre centrándose en aumentar la resolución y/o el número de colores
disponibles. Entre ellos estaban:
Modo de vídeo Máxima resolución y máximo número de colores
SVGA
800x600 y 256 colores
XGA
1024x768 y 65.536 colores
IBM 8514/A
1024x768 y 256 colores (no admite 800x600)
De cualquier manera, la frontera entre unos estándares y otros es sumamente confusa,
puesto que la mayoría de las tarjetas son compatibles con más de un estándar, o con
algunos de sus modos. Además, algunas tarjetas ofrecen modos adicionales al añadir
más memoria de vídeo.
Actualmente los mayores fabricantes de chip gráficos en el mercado son Nvidia y
Ati. Esto se debe a que se encargan solamente, de hacer los chips gráficos (GPU) y
no fabrican tarjetas.
La resolución y el número de colores
La resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta
de vídeo, tanto en horizontal como en vertical. Así, "800x600" significa que la imagen
está formada por 600 rectas horizontales de 800 puntos cada una. Para que nos hagamos
una idea, un televisor (de cualquier tamaño) tiene una resolución equivalente de
800x625 puntos.
En cuanto al número de colores, resulta evidente: los que puede presentar a la vez por
pantalla la tarjeta. Así aunque las tarjetas EGA sólo representan a la vez 16 colores, los
eligen de una paleta de 64 colores.
La combinación de estos dos parámetros se denomina modo de vídeo; están
estrechamente relacionados: a mayor resolución, menor número de colores
representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las
liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria
general o RAM). Algunas combinaciones posibles son:
Memoria de vídeo Máxima resolución (en 2D) Máximo número de colores
512 Kb
1024x768 a 16 colores
256 a 640x480 puntos
1 MB
1280x1024 a 16 colores
16,7 millones a 640x480
2 MB
1600x1200 a 256 colores
16,7 millones a 800x600
4 MB
1600x1200 a 65.536 colores 16,7 millones a 1024x768
Se han colocado los modos más comunes, ya que no todas las tarjetas admiten todos los
modos, aparte de que muchas no permiten ampliar la memoria de vídeo. El cálculo de la
memoria necesaria es: (Res. Vert.)x(Res. Horiz.)x(Bits de color)/8.
Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya
que si no éste podría dañarse gravemente. Esto depende de las características del
mismo, en concreto de la Frecuencia Horizontal, como se explica en el apartado
dedicado al monitor.
Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen
necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600
puntos con 16 bits de color (65.536 colores) suele requerir al menos 4 MB de memoria
de vídeo.
La velocidad de refresco
El refresco, es el número de veces que se dibuja la pantalla por segundo (como los
fotogramas del cine); evidentemente, cuanto mayor sea menos se nos cansará la vista y
trabajaremos más cómodos y con menos problemas visuales.
Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja
cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente
necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga
visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los
ojos sufren , y unos minutos bastan para empezar a sentir escozor o incluso un pequeño
dolor de cabeza.
Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste en
que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares,
por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la
vista sobremanera. Afortunadamente la técnica está en desuso, pero en los monitores de
14" se ha usado hasta hace un par de años.
El motivo de tanto entrelazado y no entrelazado es que construir monitores que soporten
buenas velocidades de refresco a alta resolución es bastante caro, por lo que la tarjeta de
vídeo empleaba estos truquitos para ahorrar a costa de la vista del usuario. Sin embargo,
tampoco todas las tarjetas de vídeo pueden ofrecer cualquier velocidad de refresco. Esto
depende de dos parámetros:


La velocidad del RAMDAC, el conversor analógico digital. Se mide en MHz, y debe ser
lo mayor posible, preferiblemente superior a 200 MHz.
La velocidad de la memoria de vídeo, preferiblemente de algún tipo avanzado como
WRAM, SGRAM o SDRAM.
Memoria de vídeo
Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más
exista, más opciones tendremos); además, su tipo determina si conseguiremos buenas
velocidades de refresco de pantalla o no. Los tipos más comunes son:





DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características;
refrescos máximos entorno a 60 Hz.
EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja.
Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores
y 25 ns las mejores.
VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy
buenas características.
MDRAM: un tipo de memoria no muy común, pero de alta calidad.
SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas
prestaciones. La SGRAM es SDRAM especialmente adaptada para uso gráfico, en teoría
incluso un poco mas rápida.
Conectores: PCI, AGP
La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o
ranura de expansión. Muchos tipos de ranuras de expansión se han creado precisamente
para satisfacer a la ingente cantidad de información que se transmite cada segundo a la
tarjeta gráfica.




ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a
tarjetas con un cierto grado de aceleración resulta insuficiente. Usado hasta las
primeras VGA "aceleradoras gráficas", aquellas que no sólo representan la
información sino que aceleran la velocidad del sistema al liberar al microprocesador de
parte de la tarea gráfica mediante diversas optimizaciones.
VESA Local Bus: más que un slot un bus, un conector íntimamente unido al
microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución
barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no
muy avanzada.
PCI: el estándar para conexión de tarjetas gráficas (y otros múltiples periféricos).
Suficientemente veloz para las tarjetas actuales, si bien algo estrecho para las 3D que
se avecinan.
AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado
únicamente para tarjetas gráficas que transmitan cientos de MB/s de información,
típicamente las 3D. Presenta poca ganancia en prestaciones frente a PCI, pero tiene la
ventaja de que las tarjetas AGP pueden utilizar memoria del sistema como memoria de
vídeo (lo cual, sin embargo, penaliza mucho el rendimiento).
En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la eleva,
lo que explica que algunas tarjetas PCI sean muchísimo más rápidas que otras AGP más
baratas o peor fabricadas.
Adecuación al uso del ordenador
Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en un
monitor de 15" que para hacer CAD en uno de 21". Nótese que siempre hago referencia
al monitor con el que van a trabajar, porque una tarjeta muy buena no puede
demostrarlo en un mal monitor, ni a la inversa.



Ofimática: tarjetas en formato PCI o AGP, con microprocesadores buenos en 2D, sin
necesidades 3D específicas; capaces de 1024x768; con unos 2 ó 4 MB; y con buenos
refrescos, entorno a 70 u 80 Hz. Un ejemplo típico "de marca" es la Matrox G200, o
bien cualquiera basada en el chip i740.
Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria (entre 8 y 32
MB), generalmente de marca y preferiblemente AGP. Por ejemplo, las tarjetas basadas
en chips TNT2 o Voodoo3.
Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias ultrarrápidas, capaces de
llegar a 1600x1200 puntos a 70 Hz o más, con 4 MB o más. Cualquiera con un
superchip, SGRAM/SDRAM y un RAMDAC de 225 MHz o más.
La tarjeta de sonido.
Introducción a la tarjeta de sonido
La tarjeta de sonido (que también se denomina placa de audio) es un elemento del
ordenador que permite administrar la entrada y salida del audio.
Por lo general, se trata de un controlador que puede insertarse en una ranura ISA (o PCI
para las más recientes) pero son cada vez más frecuentes las placas madre que incluyen
su propia tarjeta de sonido.
Conectores de la tarjeta de sonido
Los componentes principales de una tarjeta de sonido son:




El procesador especializado que se llama DSP (Procesador de Señales Digitales
<em>[Digital Signal Processor]</em>) cuya función es procesar todo el audio digital
(eco, reverberación, vibrato chorus, tremelo, efectos 3D, etc.);
El Convertidor Digital Analógico (DAC, Digital to Analog Converter) que permite
convertir los datos de audio del ordenador en una señal analógica que luego será
enviada al sistema de sonido (como por ejemplo altavoces o un amplificador);
El Convertidor Analógico Digital (DAC, Digital to Analog Converter) que permite
convertir una señal analógica de entrada en datos digitales que puedan ser procesados
por el ordenador;
Conectores externos de entrada/salida:
o Uno o dos conectores estándar de salida de línea de 3.5 mm, por lo general
son de color verde claro;
o Un conector de entrada de línea;
o Un conector de 3.5mm para micrófonos (que también se denomina Mic), por
lo general son de color rosa;
o Una salida digital SPDIF (Sony Philips Digital Interface también conocida como
S/PDIF o S-PDIF o IEC 958 o IEC 60958 desde 1998). Es una línea de salida que
permite enviar audio digitalizado a un amplificador de señal por medio de un
cable coaxial que posee, a su vez, conectores RCA en cada uno de los
extremos.
o Un conector MIDI, por lo general de color dorado, se utiliza para conectar
diversos instrumentos musicales. Puede servir como puerto de juegos para

conectar un controlador (como mando de juegos o videojuegos) que posee a
su vez un conector D-sub de 15 patillas.
Conectores internos de entrada/salida:
o Un conector de CD-ROM/DVD-ROM, con un zócalo de color negro, utilizado
para conectar la tarjeta de audio a la salida de audio analógica del CD-ROM
por medio de un cable de audio CD.
o Las entradas auxiliares (AUX-in), poseen un zócalo blanco, que se utiliza para
conectar las fuentes internas de audio, como si fuera una tarjeta sintonizadora
de TV;
o Conectores para contestadores automáticos (TAD), que tienen un conector de
color verde.
Otros sistemas de lectura-escritura.
Disquetera
La unidad de 3,5 pulgadas permite intercambiar información
utilizando disquetes magnéticos de 1,44 MB de capacidad.
Aunque la capacidad de soporte es muy limitada si tenemos
en cuenta las necesidades de las aplicaciones actuales se
siguen utilizando para intercambiar archivos pequeños, pues
pueden borrarse y reescribirse cuantas veces se desee de una
manera muy cómoda, aunque la transferencia de
información es bastante lenta si la comparamos con otros
soportes, como el disco duro o un CD-ROM.
Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo
se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno
gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un
icono representado por una papelera).
La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del
sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se
ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso
del disco duro.
En los disquetes solo se puede escribir cuando la pestaña esta cerrada.
Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se
ha vuelto obsoleto teniendo en cuenta los avances que en materia de tecnología se han
producido.
Unidad de CD-ROM o "lectora"
La unidad de CD-ROM permite utilizar discos ópticos de una
mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700
MB. Ésta es su principal ventaja, pues los CD-ROM se han
convertido en el estándar para distribuir sistemas operativos,
aplicaciones, etc.
El uso de estas unidades está muy extendido, ya que
también permiten leer los discos compactos de audio.
Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que
salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el
botón, la bandeja se introduce.
En estas unidades, además, existe una toma para auriculares, y también pueder estar
presentes los controles de navegación y de volumen típicos de los equipos de audio para
saltar de una pista a otra, por ejemplo.
Una característica básica de las unidades de CD-ROM es la velocidad de lectura que
normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número
indica la velocidad de lectura en múltiplos de 128 kB/s. Así, una unidad de 52x lee
información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.
Unidad de CD-RW (regrabadora) o "grabadora"
Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en
un disco, pero no pueden escribir datos en él.
Una regrabadora puede grabar y regrabar discos compactos. Las características básicas
de estas unidades son la velocidad de lectura, de grabación y de regrabación. En los
discos regrabables es normalmente menor que en los discos que sólo pueden ser
grabados una vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten
grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos
pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx
cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).
Unidad de DVD-ROM o "lectora de DVD"
Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden
leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de
CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad
de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x...
Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CDROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más
destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer
de una salida de audio digital. Gracias a esta conexión es posible leer películas en
formato DVD y escuchar seis canales de audio separados si disponemos de una buena
tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).
Unidad de DVD-RW o "grabadora de DVD"
Puede leer y grabar y regrabar imágenes, sonido y datos en discos de varios gigabytes
de capacidad, de una capacidad de 650 MB a 9 GB.
Unidad de disco magneto-óptico
La unidad de discos magneto-ópticos permiten el proceso de lectura y escritura de
dichos discos con tecnología híbrida de los disquetes y los discos ópticos, aunque en
entornos domésticos fueron menos usadas que las disqueteras y las unidades de CDROM, pero tienen algunas ventajas en cuanto a los disquetes:

Por una parte, admiten discos de gran capacidad: 230 MB, 640 Mb o 1,3 GB.

Además, son discos reescribibles, por lo que es interesante emplearlos, por ejemplo,
para realizar copias de seguridad.
Lector de tarjetas de memoria
El lector de tarjetas de memoria es un periférico que lee o escribe en soportes de
memoria flash. Actualmente, los instalados en computadores (incluidos en una placa o
mediante puerto USB), marcos digitales, lectores de DVD y otros dispositivos, suelen
leer varios tipos de tarjetas.
Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza memoria
flash para guardar la información que puede requerir o no baterías (pilas), en los últimos
modelos la batería no es requerida, la batería era utilizada por los primeros modelos.
Estas memorias son resistentes a los rasguños externos y al polvo que han afectado a las
formas previas de almacenamiento portátil, como los CD y los disquetes.
Otros dispositivos de almacenamiento
Otros dispositivos de almacenamiento son las memorias flash o los dispositivos de
almacenamiento magnéticos de gran capacidad.

Memoria flash: Es un tipo de memoria que se comercializa para el uso de aparatos
portátiles, como cámaras digitales o agendas electrónicas. El aparato correspondiente
o bien un lector de tarjetas, se conecta a la computadora a través del puerto USB o
Firewire.

Discos y cintas magnéticas de gran capacidad: Son unidades especiales que se utilizan
para realizar copias de seguridad o respaldo en empresas y centros de investigación.
Su capacidad de almacenamiento puede ser de cientos de gigabytes.

Almacenamiento en línea: Hoy en día también debe hablarse de esta forma de
almacenar información. Esta modalidad permite liberar espacio de los equipos de
escritorio y trasladar los archivos a discos rígidos remotos provistos que garantizan
normalmente la disponibilidad de la información. En este caso podemos hablar de dos
tipos de almacenamiento en línea: un almacenamiento de corto plazo normalmente
destinado a la transferencia de grandes archivos vía web; otro almacenamiento de
largo plazo, destinado a conservar información que normalmente se daría en el disco
rígido del ordenador personal.
Bibliografía




Cattania. Arquitectura y programación.
Brey, Barry B. Los microprocesadores Intel. Arquitectura, programación e interfaces.
Prentice Hall 1994.
Arquitectura de Microprocesadores. José María Angulo Usategui, José Luis Gutiérrez
Temiño, Ignacio Angulo Martínez.
Diseño de Sistemas Digitales y Microprocesadores. J. P. Hayes Ed. McGraw-Hill, 1986.