Download 1 - IES Pare Arques de Cocentaina

Document related concepts
no text concepts found
Transcript
MONOGRÁFICO
SOBRE
EL
HARDWARE
DEL
ORDENADOR EN EL BLOQUE DE TECNOLOGÍAS DE LA
INFORMACIÓN EN EL ÁREA DE TECNOLOGÍA:
1. EL HARDWARE Y LOS DISPOSITIVOS DE ALMACENAMIENTO DEL
ORDENADOR EN EL ÁREA DE TECNOLOGÍA………….. ………………… 2
2. CONOCIMIENTOS DE HARDWARE BÁSICO DEL ORDENADOR EN EL
ÁREA DE TECNOLOGÍA………………………………….. ………………….. 23
3. EL ORDENADOR Y SUS COMPONENTES HARDWARE UTILIZADOS EN
TECNOLOGÍA……………………………………………………………………. 34
4. UNIDADES
DE
ALMACENAMIENTO
UTILIZADOS
EN
TECNOLOGÍA……………………………………………………………………… 47
5. INFORME DE HARDWARE: TRABAJO PRÁCTICO SOBRE DISPOSITIVOS
DE DISCO…………………………………………................................................... 72
6. DISPOSITIVOS DE ALMACENAMIENTO: MEMORIAS RAM. ASPECTOS
TECNOLÓGICOS…………………………………………………………………... 99
7. ORDENADORES CUÁNTICOS Y NUEVAS TECNOLOGÍAS……………….. 104
8. TERMINOLOGÍA HARDWARE UTILIZADA EN TECNOLOGÍA………….. 115
Autores:
Maria Dolores Villena Roblizo Profesora de Tecnología del I.E.S Jorge Juan de Alicante
Francisco Sánchez Bocanegra, Profesor de Ciclos formativos del I.E.S Politécnico de Alicante
Guillermo Martín Gómez, Profesor de Ciclos formativos del I.E.S Politécnico de Alicante
César Sánchez Serna, Profesor de Tecnología del I.E.S Cabo de las Huertas de Alicante
1
1.- EL HARDWARE Y LOS DISPOSITIVOS DE ALMACENAMIENTO DEL ORDENADOR EN EL
ÁREA DE TECNOLOGÍA
En un reciente articulo publicado en ELPAIS.es – el 30-03-2006, expertos de PC City y FNAC ayudan
a elegir componentes para un ordenador que sirva para las tareas más comunes. La evolución de los ordenadores
de sobremesa sigue el ritmo que marcan los componentes que integran. Existen diferentes tecnologías y marcas
para el procesador, el monitor, la grabadora de DVD, o el disco duro, y el consumidor no sabe en muchas
ocasiones por qué producto decidirse. Ofrecemos a continuación algunos consejos sobre cada uno de estos
componentes, con el objetivo de construir el equipo de sobremesa más adecuado para poder realizar las tareas
más comunes, a continuación desarrollaremos estos componentes.
Edición de imágenes, conexión a Internet de alta velocidad, visionado de películas, telefonía a través de
la Red… ¿Qué componentes necesita tener un ordenador para que pueda realizar las tareas más comunes y no se
quede antiguo en cuatro meses? Cada usuario es distinto y tiene unas necesidades diferentes, pero es posible dar
algunas pistas sobre los componentes básicos que de estar presentes en el ordenador garantizan una operatividad
completa. Abordamos este artículo con la visita a las páginas web del departamento de informática de FNAC y
de la cadena de tiendas de informática PC City.
Procesador
Un ordenador empieza a construirse por el procesador, considerado el cerebro de la máquina. Lo más
recomendable es optar por cualquiera de los chips de doble núcleo de Intel o AMD, las dos marcas que dominan
el mercado. La primera puede llegar a ser unos 100 euros más cara, pero el rendimiento es casi el mismo.
Pero el procesador no es lo único que importa, pues la velocidad de proceso del ordenador depende de
otros componentes que rodean al chip y lo ponen en contacto con el resto del sistema. PC City vende desde hace
20 días ordenadores con la plataforma VIIV de Intel, que garantiza que todos estos componentes son óptimos
para realizar todo tipo de tareas multimedia, un producto que se recomienda si se desea “sacar el máximo partido
al entretenimiento digital, ver vídeo de alta definición” o escuchar música de forma habitual y, a menudo,
simultánea. AMD prepara una plataforma similar que se llamara Live, pero que todavía no está en las tiendas,
por lo que en su lugar se recomienda un procesador Athlon A64 X2 4.200, que como los de la plataforma VIIV
tiene doble núcleo. Desde FNAC se explica que doble núcleo ha salido muy recientemente al mercado, por lo
que en este establecimiento recomendarían para las tareas más comunes un Pentium IV o un procesador Turion
de AMD, y sólo saltar al doble núcleo si se quiere “lo último de lo último”.
Memoria RAM y sistema operativo
Los ordenadores convierten toda la información con la que trabajan en unos y ceros, números con los
que realizan constantemente todo tipo de operaciones matemáticas. La memoria RAM libera al procesador del
almacenamiento de algunos de estos datos, es una memoria temporal en la que se almacenan resultados
intermedios de las operaciones matemáticas, y que se vacía completamente cuando se desconecta el ordenador
de la corriente eléctrica.
Lo más apropiado en la actualidad es usar ordenadores con “un mínimo un gigabyte (1024 megas) de
memoria RAM, es lo mínimo para poder aprovechar las características de Windows XP Media Center Edition.
Se recomienda este sistema operativo porque está preparado para el entretenimiento digital, y permite realizar
todo tipo de tareas relacionadas con los archivos multimedia. Pero no todos los fabricantes lo instalan. Desde la
FNAC señala que muchos equipos de HP y Fujitsu pueden comprarse ya con Windows XP Media Center Edition
preinstalado.
La memoria RAM se distribuye en módulos de 128, 256, 512 o 1024 megas y los ordenadores, suelen
tener espacio para dos, tres o cuatro módulos. Se recomienda que si se opta por un ordenador con un giga de
RAM se distribuya la memoria en dos módulos de 512, pues el comportamiento del ordenador será así más
rápido que si se utilizan un módulo de 1024 megas. Sobre el tipo de memoria a instalar, lo más reciente es la
DDR2, un poco más rápida que la DDR, que tampoco daría malos resultados y se ajusta más a los precios de
ordenadores de gama media.
Almacenamiento
2
Como el resto de componentes que hay en un ordenador, los dispositivos de almacenamiento han
evolucionado mucho en los últimos años. La mayoría de tiendas de informática no venden ya ordenadores de
sobremesa con disquetera. En lugar de ésta, se impone la regrabadora de discos ópticos, de DVDs, porque las de
CD casi no tienen salida. Estos dispositivos de almacenamiento son capaces de realizar grabaciones en discos
con una capacidad de 4,9 gigas, cerca del doble si la grabadora es de doble capa. Éstas, según los expertos del
sector, se venden mucho pero, como sucede con el serigrafiado –posibilidad de imprimir directamente sobre el
disco-, es una característica que no se usa. La razón puede ser el coste de los discos de doble capa, el doble que
los normales.
El departamento de informática de FNAC recomienda además prestar atención al número de unidades
ópticas de que dispone el ordenador. Si sólo tiene la regrabadora de DVD, cuando se quiera copiar un disco los
datos que contienen tendrán que pasarse primero al disco duro desde el original, para sacarlo luego de la unidad,
introducir el disco virgen, y volcar finalmente los datos a éste. La tarea se simplificará si se dispone además de
un reproductor de DVD.
El apartado de almacenamiento también incluye el disco duro, principal destino de las fotografías,
documentos, vídeos e imágenes que suelen manejar todos los usuarios de ordenadores. Los expertos apuesta por
un disco duro de entre 200 y 250 gigas, aunque para usuarios con una gran cantidad de ficheros “existen
soluciones de hasta 640 gigas, con dos discos duros de 320”. La tecnología de los discos también ha
evolucionado, siendo la más reciente Serial ATA 2, más rápida y pequeña, y mejor refrigerada, que la anterior,
Serial ATA.
Móviles, reproductores de MP3, cámaras digitales y otros dispositivos portátiles utilizan para guardar
datos tarjetas de memoria. Para llevar las fotos o la música al ordenador puede utilizarse una conexión Bluetooth
o un cable USB, pero en la actualidad lo más recomendable es hacerse con un ordenador que incorpore lector de
tarjetas. Normalmente suelen venir de serie y pueden utilizarse con ellos varios formatos.
Monitor
Gane espacio en su estudio eludiendo los monitores de toda la vida, conocidos por las siglas CRT, y
comprando un equipo con monitor plano, también llamado TFT. “Hace un año que no vendemos pantallas que
no sean planas”. “No tiene sentido ni por consumo ni por emisiones, ni por espacio. 17 pulgadas sería el
estándar, que equivale al antiguo 19 en CRT”.
Conectividad
Un ordenador pierde buena parte de su utilidad si no está conectado a Internet. Antes los ordenadores
incorporaban un módem para red telefónica básica con el que se podía acceder a la Red a velocidades bastante
bajas, pero el empuje del ADSL ha hecho que este componente desaparezca de los equipos. Como son las
operadoras las que normalmente facilitan el módem ADSL o un router -dispositivo que permite conectar varios
equipos a Internet de forma simultánea-, lo más recomendable es prestar atención en este punto a si el ordenador
que se va a adquirir dispone o no de tarjeta de red. Lo más recomendable es que la tenga, pues es indispensable
para poder conectarse a un router y con ello, a la red doméstica. Existen tarjetas de red inalámbricas para equipos
de sobremesa, pero sólo serán de utilidad si el dispositivo de acceso a la red está en un lugar inaccesible o muy
lejano que obligaría a tender demasiado cable.
Para conectar otros dispositivos, es indispensable tener varios puertos USB 2.0, a los que se podrán
enchufar impresoras, webcam, mandos para juegos, cámaras digitales.... “Los equipos nuevos suelen tener unos
siete puertos USB 2.0, y dos Firewire”, apuntan en la web, una conexión que suele estar presente pero que no se
utiliza mucho.
Gráficos y otros componentes
Si alguien en la familia es aficionado a los videojuegos de última generación o pretende realizar edición
de vídeo con archivos de gran peso puede ser necesario adquirir una tarjeta de vídeo que libere a otros
componentes del sistema del trabajo que supone gestionar tanta información gráfica. Si no es el caso, existen en
la actualidad tarjetas gráficas integradas en la placa base del ordenador –a la que se enganchan el procesador y
otros componentes básicos del PC- que cumplen de sobra con los requerimientos de un usuario básico. “Hasta
ahora existían tarjetas en placa que tomaban prestada memoria de la RAM, llamadas dedicadas, e integradas, que
no necesita de la RAM porque tiene una memoria propia”, explican en la web. “Ahora hay una combinación de
3
ambos, con un producto de Nvidia que se llama Turbo cache y otro de ATI que se llama Hipermemory”. Ambos
son bastante recomendables.
Entre los componentes adicionales que no suelen estar incorporados en la configuración de serie de los
PCs, pero que resultan muy útiles, el responsable de producto de PC City recomienda instalar una sintonizadora
de televisión, con lo que se podrá ver y grabar vídeo desde el ordenador. Por unos cien euros se podría conseguir
este componente y la instalación de Media Center, lo que convertiría el equipo en un centro multimedia.
Además, los componentes que antes se sustituye en los ordenadores nuevos son el teclado y el ratón, en el caso
de que los que el PC incorporaba de serie no fueran inalámbricos.
1. HARDWARE. COMPONENTES.
Por ordenador personal entendemos un instrumento de trabajo con una serie de elementos esenciales
para su funcionamiento (placa base, procesador, disco duro...) y otros secundarios que amplían sus posibilidades
de uso (impresora, escáner, módem de conexión a Internet...). Estos componentes físicos son lo que
denominamos hardware.
Los componentes más usuales del hardware de un ordenador personal son:
UNIDAD CENTRAL: es la caja en la que se recoge, organiza y conecta el conjunto del hardware. Los
componentes esenciales que se encuentran en su interior son:
Placa base: en ella se centralizan todas las actividades esenciales del ordenador. Conecta entre sí el
microprocesador, la memoria RAM, los discos... Además lleva incorporado un programa básico, denominado
bios que arranca el ordenador y controla su funcionamiento más básico: control horario, gestión de la memoria,
características de los discos, etc.
Este es el esquema de una placa base habitual en este momento (Intel Pentium III a 1 Ghz):
Puertos de ratón y teclado
Puertos USB
Microprocesador
Memoria RAM
Banco para disquetera (FDD)
Puerto paralelo
Puertos de comunicaciones
Bancos para discos duros y CD-ROM (IDE)
Puertos para juegos y audio
Slot para pinchar tarjetas AGP
Slots para pinchar tarjetas PCI (vídeo, módem interno, tarjeta
de red...)
Pila
Bios
Slot para pinchar tarjetas ISA
Microprocesador (también llamado CPU: Central Processing Unit): es el verdadero corazón del
ordenador personal. Se conecta en la placa base y ambos deben estar conjugados (cualquier microprocesador no
puede insertarse en cualquier placa). De él depende la velocidad y la fiabilidad de las operaciones que
efectuemos en nuestro ordenador.
4
Hay dos grandes fabricantes de microprocesadores: INTEL (con dos gamas, Pentium y Celeron) y
AMD (con dos gamas, Athlon y Duron).
Los microprocesadores se distinguen tanto por su modelo como por su capacidad de gestión de datos
que se mide en megahercios (así podemos hablar del Pentium IV a 1,5 gigahercios o de Duron a 900
megahercios).
Memoria RAM: sirve para almacenar la información del trabajo que estamos haciendo en cada
momento. Cuando apagamos el ordenador, la información contenida en la memoria RAM desaparece. Cuanta
mayor cantidad de memoria RAM tengamos instalada en el ordenador, más complejas y rápidas serán las
operaciones que podamos realizar en nuestro trabajo. Hay distintos tipos de memoria RAM (en este momento, es
muy habitual la denominada SDRAM), que se diferencian en su capacidad y velocidad de trabajo, pero todas
ellas se miden en megas. Lo habitual en un ordenador actual es que se disponga entre 32 y 128 megas de
memoria RAM.
Disco duro: su función es la de almacenar información. Esta información es, básicamente, de dos tipos:
los programas que utilizamos (sistema operativo, tratamientos de textos, tratamientos de imágenes, juegos, etc.)
y los documentos de nuestro trabajo (los apuntes de clase, los exámenes, nuestras fotografías, etc.). La
información contenida en el disco duro es permanente, no desaparece cuando apagamos el ordenador.
Hay muchas clases de discos duros diferenciándose, sobre todo, por su velocidad de funcionamiento y
transmisión de datos (a la memoria RAM, a otros discos duros...) y su capacidad de almacenamiento. El tamaño
de los discos duros se mide en gigas (una giga es igual a 1000 megas). Lo más frecuente en este momento son
los discos duros de 6 a 12 gigas.
La mayor parte de las placas actuales pueden admitir hasta cuatro discos duros. Lo ideal es tener en
nuestro ordenador dos discos duros, en uno tenemos instalados los programas y en otro guardamos nuestros
documentos (así evitamos problemas muy frecuentes como el de los virus). Los discos duros más habituales en
la actualidad son de conexión E-IDE y tipo UltraDMA.
Disquetes: son discos flexibles de pequeña capacidad (normalmente 1,44 megas) que utilizamos para
intercambiar información entre unos y otros ordenadores. Su mayor utilidad es la de permitir
arrancar el ordenador cuando hemos tenido un fallo importante y ha dejado de funcionar.
CD-ROM y DVD-ROM: son similares en su apariencia a las disqueteras. Sin embargo, en ellos se
trabaja con discos compactos de mucha mayor capacidad (650 o 1300 megas) y, sobre todo, rapidez (se mide con
expresiones como X52). Los DVD-ROM son una evolución de los CD-ROM que permiten grabar
por las dos caras y a dos niveles los discos, permitiendo una capacidad de almacenamiento de
datos muy alta. La totalidad de los sistemas operativos y programas actuales se instalan desde CDROM y DVD-ROM. Los hay que simplemente leen los discos, mientras que otros son capaces de
leer y grabar en los discos.
Ranuras de expansión: en ellas se pinchan las tarjetas que conectan elementos externos (tarjeta de sonido,
tarjetas de algunos escáner, algunos módem para Internet...) a
la placa para que los ponga en contacto con el resto del
hardware. Hay distintos tipos de ranuras de expansión y
siempre tendremos que asegurarnos que disponemos de un
banco (así se llaman también estas ranuras) adecuado a la
tarjeta que queremos pinchar.
Cada tipo de ranura tiene sus propias características
de velocidad y fiabilidad. Hace unos años las más habituales
eran la ISA, en la actualidad son más habituales las AGP y,
sobre todo, las PCI. Según evolucionan este tipo de bancos,
se van sustituyendo el tipo de tarjetas que se pinchan: vídeo,
red...
Puertos y conectores: conectan los periféricos
(como la impresora o determinados escáner) a la unidad
central. Hay muy variados tipos de puertos que también
se diferencian por la velocidad de transmisión y los
5
periféricos a que se destinan. Es muy importante, antes de comprar un periférico, asegurarse de que tenemos
instalado (o podemos instalar en nuestro ordenador) el puerto adecuado.
PS/2. Adecuados para ratón y Paralelo. Normalmente usado para Midi/Joystick. Para periféricos de
teclado.
conectar impresoras. También se control de juego.
usa para escáneres y discos
extraíbles.
USB. Sirven para conectar
cualquier tipo de periférico. Tienen
más velocidad de transferencia que
los PS/2 o Paralelo.
COM. También conocidos como Audio.
Conexiones
puertos serie. Son puertos de altavoces y micrófono.
comunicación. Pueden ser usados para
distintos usos como módem, ratón.
Tienden a usarse cada vez menos.
para
PERIFÉRICOS: son los componentes de hardware conectados a la unidad central pero que
permanecen físicamente fuera de ella. Algunos son imprescindibles en todo ordenador mientras que otros pueden
considerarse complementos de mayor o menor utilidad.
Monitor: hace posible la visualización de nuestro trabajo. Desde hace unos años se han impuesto los
monitores digitales y últimamente los conocidos como TFT (pantalla plana). Se diferencian tanto
por las dimensiones (lo habitual es que estén entre las 14 y las 17 pulgadas) como por la calidad de
la imagen. Pese a que no se suele valorar en exceso, un buen monitor resulta esencial para no
dañar nuestra vista ni fatigarnos innecesariamente con nuestro trabajo.
Teclado: tiene un conjunto de teclas no solo alfabéticas y numéricas sino también para el
desplazamiento por la pantalla y la utilización de los menús de los programas. Existen dos tipos
básicos, los tradicionales (con todas las teclas alineadas) y los ergonómicos (con las teclas
formando una especie de V para evitar el cansancio de las manos y muñecas). También se
diferencia entre teclados de mecánicos y no mecánicos.
Ratón (o Mouse): aunque con el teclado es posible realizar la práctica totalidad del trabajo en un
ordenador, la invención del ratón fue una de las grandes revoluciones de los ordenadores
personales. Su función principal es la de desplazarse por la pantalla y manejar con rapidez y
comodidad los menús. En algunos tipos de programas (como los de tratamiento de imágenes) son
realmente imprescindibles. Los hay de muchos tipos según su forma, conexión a la unidad central
(con o sin cable) y número de botones (dos o tres generalmente). Últimamente se generalizan los ratones con una
pequeña ruedecilla (scroll) entre los botones que sirve para desplazarse verticalmente en los documentos,
circunstancia especialmente útil en Internet y documentos de texto muy amplios.
Otra novedad importante en los últimos meses son los ratones ópticos, que sustituyen la bola que
controla el movimiento sobre la superficie por una luz que controla el mismo movimiento de una manera mucho
más precisa y sin problemas de mantenimiento.
En los ordenadores portátiles son cada vez más habituales los touch-pad, pequeñas pantallas sensibles
que se activan al contacto con el dedo.
Impresora: permite imprimir en papel nuestro trabajo. Las hay de varios tipos (matriciales o de agujas,
de chorro de tinta, láser...). Las más frecuentes en este momento son las de chorro de tinta en
color. Sus características difieren básicamente en función de su resolución (es decir, de la calidad
del acabado de impresión, aspecto especialmente importante cuando trabajamos con imágenes) y
6
velocidad. Estas características varían de una marca a otra y de un modelo a otro, sin embargo, es preciso tener
en cuenta que cada impresora permite modificar las opciones de impresión en función de lo que necesitemos en
cada momento.
Escáner: sirve para captar imágenes y almacenarlas para su posterior tratamiento, impresión, etc. Es
como dotar del sentido de la vista a nuestro ordenador personal. Su conexión a la unidad central varía según cada
modelo concreto (a través del puerto de la impresora, mediante un puerto SCSI, USB, etc.). También se pueden
diferenciar según sus características físicas en tres tipos distintos: de mano (son similares a un
ratón y resultan especialmente útiles combinados con ordenadores portátiles o para pequeños
trabajos), de rodillo (ocupan poco espacio y sirven para escanear hojas sueltas o superficies
superiores a una hoja de tipo Din-A4) y de sobremesa (son los más habituales, tienen una forma
similar a una fotocopiadora y son los más cómodos y útiles, sobre todo para obtener imágenes de hojas sueltas y
libros).
La calidad de un escáner se mide, sobre todo, por la definición de la imagen obtenida, que suele estar
entre los 300 y 1200 dpi. Esta definición, propia de cada escáner, se puede modificar según las necesidades de
cada caso concreto mediante un programa instalado en el ordenador.
Las dos utilidades básicas de un escáner son: la obtención de imágenes de tipo fotográfico que
posteriormente se pueden tratar y modificar mediante programas adecuados, y la obtención de textos que más
adelante se pueden modificar y tratar a través de unas aplicaciones denominadas OCR (Reconocimiento Óptico
de Caracteres).
Discos flexibles de alta capacidad: son muy parecidos a los disquetes pero su capacidad de
almacenamiento es muy superior (100 a 250 megas). Las disqueteras se pueden instalar dentro de la
unidad de discos o en disqueteras externas que se conectan por puertos paralelos o USB. Frente a los
CD-ROM, tienen la ventaja de que pueden ser formateados y regrabados cuantas veces se desee. Su
mayor inconveniente es su menor velocidad de transmisión.
Funciones similares, aunque no se trate exactamente del mismo periférico, cumplen los discos ópticos y
los discos duros extraíbles.
Módem: permiten la conexión a Internet de nuestro ordenador. Aunque son un periférico, pueden
adoptar dos formas muy distintas: módem interno, en cuyo caso son, en realidad, una tarjeta que se
pincha en una ranura PCI, o módem externo, es decir, un auténtico periférico. En este caso, la
conexión se realiza mediante puerto serie o USB. Además de por su ubicación y conexión, los
módem se clasifican por su velocidad de transmisión de datos. Lo habitual en este momento es que
sean de 56 Kb.
ACTIVIDAD 1.
 Desconectar los distintos componentes de un ordenador: unidad de discos, monitor, ratón, teclado...
Observar cuál es la ubicación y características de cada una de las conexiones.
 Abrir la caja de la unidad central.
 Observar por el interior la ubicación de los siguientes elementos:











Placa base.
Microprocesador.
Memoria RAM.
Ranuras de expansión (averiguando de qué tipos son estas ranuras).
Tarjetas.
Unidad de discos flexibles.
Unidad de discos duros.
Unidad de CD-ROM (si la hay).
Puertos (de qué tipo son).
Fuente de alimentación.
Otros posibles componentes (ventilador, pila...).
7
2. HARDWARE. INSTALACIÓN
La instalación de componentes de hardware en el ordenador, tanto sean periféricos como hardware
interno, es muy sencilla. Sin embargo, antes de iniciar el proceso hay que tener en cuenta que:
 No todo el hardware es compatible. Es decir, antes de adquirir cualquier componente de hardware
(tarjeta de vídeo, disco duro, impresora...), debemos asegurarnos de que vamos a poder instalarlo.
 Una vez pinchado el hardware, no podremos hacer uso de él hasta que nuestro ordenador no lo
reconozca. Para ello, lo habitual es que tengamos que instalar un pequeño programa denominado
driver, aunque en otras ocasiones habrá de ser reconocido a través del programa de arranque del
ordenador, la bios.
INSTALACIÓN DE PERIFÉRICOS
En todos los casos, antes de instalar un periférico, nos debemos asegurar de que nuestro equipo dispone
de los puertos adecuados. Solo los monitores tienen un tipo de conexión única, que siempre podremos instalar en
nuestra unidad central. El resto, incluidos teclados y ratones, pueden tener conexiones incompatibles con los
puertos del ordenador.
MONITOR:
Conexión: se conecta a la red eléctrica (directamente o a través de la unidad central) y a la entrada
de vídeo (normalmente SVGA).
Instalación: al reiniciar el ordenador, el sistema operativo reconocerá el nuevo componente y lo
instalará. No es preciso instalar drivers específicos debido a que es un tipo de periférico que está muy
estandarizado.
TECLADO:
Tipos: pueden ser mediante cable e inalámbricos. Estos últimos deben conectarse al equipo
mediante la instalación de su driver de fábrica.
Conexión: los primeros, los unidos a la unidad central mediante un cable, pueden tener dos tipos de
conexión: DIN y miniDIN. En ambos casos, la clavija es de forma redonda, aunque se distinguen porque el
miniDIN es de mucho menor diámetro. La tendencia es a que se impongan los miniDIN, también llamados PS/2.
Instalación: para instalarlos, basta conectarlos físicamente al ordenador, siempre apagado, y reiniciarlo.
No es preciso instalar driver específico aunque sí habrá que controlar que la configuración del idioma sea la
adecuada. El teclado funcionará tanto en modo DOS como en el sistema operativo que tengamos instalado.
RATÓN:
Tipos: al igual que el teclado, puede ser de conexión física o mediante infrarrojos. En este caso, la
conexión se realizará instalando el driver de marca.
Conexión: los que utilizan cable, pueden responder a tres tipos de puertos: serial
y USB
reiniciarlo.
, PS/2
. Para instalar el ratón hay que pincharlo en su conector (siempre con el equipo apagado) y
Instalación: el sistema operativo lo reconocerá instalará el software. Solo será preciso instalar el driver
de fábrica si queremos personalizar el ratón (por ejemplo, dándoles funciones específicas a los botones) o para
que funcione en modo DOS sin entrar en Windows.
IMPRESORA:
Tipos: por lo que respecta a su instalación, se pueden distinguir dos tipos: impresoras en red e
impresoras locales.
8
Conexión: las impresoras en red se conectan a través de un cable de red (RJ45) que se pincha
directamente en el hub. Las impresoras locales suelen usar puerto paralelo
o USB
. También las hay con conexión SCSI (en este caso hay que pinchar una tarjeta SCSI en la placa para
poder conectar la impresora).
Instalación: siempre se debe de hacer mediante el driver específico de la marca y modelo y desde el
sistema operativo. Ahora bien, mientras que en el caso de las impresoras locales basta con instalar el driver, en el
de las impresoras en red hay que seguir un doble proceso: primero instalar un puerto de impresora virtual y
segundo instalar el driver propiamente dicho.
ESCÁNER:
Tipos: solo hay escáneres locales, no hay escáneres en red.
Conexión: igual que en el caso de las impresoras, pueden conectarse al puerto paralelo
, USB
o conectarse mediante tarjeta SCSI. Debido a que los ordenadores solo
suelen disponer de un puerto paralelo, los escáneres disponen de un puerto transparente, es decir, que la
impresora utiliza el mismo puerto paralelo que el escáner.
Instalación: los escáneres no pueden ser instalados por el sistema operativo Windows, en consecuencia,
siempre hay que instalarlos mediante el driver de fábrica correspondiente.
MÓDEM:
Tipos: puede ser interno o externo.
Conexión: los internos se instalan como si fueran una tarjeta, es decir, se pinchan en la ranura
correspondiente (normalmente PCI), se reinicia el ordenador y se instala el driver.
Los externos se pinchan al puerto correspondiente, serial
reinicia el ordenador.
o USB
, después se
Instalación: al reiniciarse el ordenador, el sistema operativo detecta el nuevo componente. Podemos
instalarle el driver de fábrica o instalar un driver estandarizado incluido en el propio sistema operativo.
DISCOS FLEXIBLES DE ALTA CAPACIDAD:
Tipos: hay una enorme variedad de tipos, modelos y marcas. En general, se pueden distinguir
internos y externos.
Conexión: los internos se pinchan en la placa como cualquier disquetera interna. Los externos pueden
usar los puertos serial
, paralelo
, USB
o SCSI.
Instalación: los internos se instalan como una unidad de disquetes o disco duro. Los externos requieren
reiniciar el ordenador y, posteriormente, instalar el driver de fábrica.
ACTIVIDAD 2.
 Comprobar y anotar que periféricos tenemos conectados a nuestro ordenador.
 Anotar qué tipo de conexiones y puertos utiliza cada uno de nuestros periféricos.
9
 Seguir el proceso completo para la instalación de uno de estos periféricos: impresora local, escáner
o módem.
COMPONENTES INTERNOS
Al igual que ocurre con los periféricos, los componentes de hardware internos son muy variados y, por
lo tanto, debemos asegurarnos en cada caso de que son compatibles con el modelo de placa que tengamos
instalado en nuestro ordenador.
MICROPROCESADOR:
La forma física de los microprocesadores ha ido cambiando con el tiempo. Los 486, Pentium I, Pentium
IV tienen grandes variaciones. Sin embargo, todos tienen una cosa en común: se pinchan directamente en la
placa base con la que tienen que ser compatibles.
Instalación:
Se localiza en la placa base el zócalo de instalación del microprocesador.
Se levanta el brazo lateral mediante una leve presión.
El microprocesador (CPU) se pincha en el zócalo según la posición que viene
indicada en una de sus esquinas.
La acción se realiza con cuidado para no dañar ninguna de las patillas de la
CPU.
Se vuelve a bajar el brazo de sujeción para que fije firmemente la CPU al
zócalo.
Encendemos el ordenador y los reiniciamos para que la bios reconozca el nuevo
microprocesador.
MEMORIA RAM:
Lo primero que tenemos que hacer para pinchar memoria RAM en nuestro ordenador es comprobar lo
siguiente:
 Consultar en el manual de la placa base el tipo de memoria RAM que admite.
 Ver en la placa base qué tipo de bancos tiene disponibles y libres para pinchar los módulos
de RAM.
Instalación:
Se localizan los bancos, para pinchar la memoria RAM, que estén vacíos.
10
Se coloca el módulo de memoria sobre el banco vacío asegurándose de
que la posición es correcta.
Se presiona el módulo en el banco con firmeza.
Se presionan los agarres laterales del banco.
Una vez instalada físicamente la memoria RAM en la placa, se sigue este proceso:
 Se reinicia el ordenador.
 Se entra en el programa de la bios (normalmente presionando en la tecla SUPR).
 Se sigue el proceso para que la bios detecte la presencia de los nuevos módulos (este
proceso concreto cambia según cada placa).
 Se guardan los cambios.
 Se reinicia el ordenador.
 Nos aseguramos de que al arrancar, el ordenador detecta toda la memoria RAM instalada.
DISQUETERA:
Las disqueteras de discos flexibles son el estándar más extendido de los ordenadores personales, por lo
tanto, su instalación no varía de un equipo a otro.
Instalación:
Se abre la caja de la unidad central.
Se introduce la disquetera en su correspondiente ubicación. En
prácticamente todos los casos, la disquetera se introduce desde la
parte frontal del ordenador.
Se fijan los tornillos laterales que unen la disquetera a la caja.
Se localiza en la placa el banco FDD1. Lo normal en este momento es
que haya un solo banco de estas características.
El banco FDD1 es similar, pero más pequeño, que los de los discos
duros. En concreto, tiene capacidad para 34 pines en lugar de los 40
de los discos duros y CD-ROM.
Se pincha la cinta controladora de disquetes en el banco FDD1.
Obsérvese que el banco tiene una muesca en el lado de los pines 1-33.
La cinta lleva una marca para encajar la cinta correctamente.
11
En la parte posterior de la disquetera se pinchan:
1. La toma de corriente. Es un conjunto de cuatro cables de colores.
2. La cinta controladora. La conexión lleva las mismas muescas que
en el banco FDD1 por lo que hay que tener cuidado de pincharla
correctamente.
Reiniciamos el ordenador. Si la disquetera está bien montada, la bios
reconocerá la disquetera, y se podrá usar sin ningún otro
procedimiento añadido.
DISCOS DUROS:
La mayor parte de los discos duros actuales de los ordenadores personales son de tipo IDE. El proceso
de instalación que se explica a continuación es el adecuado para este tipo de discos. Los discos duros de tipo
SCSI se instalan como cualquier otro componente SCSI, en una tarjeta de estas características.
Se abre la caja de la unidad central.
Se introduce el disco duro en su correspondiente ubicación. A
diferencia de las disqueteras, los discos duros se introducen
desde dentro de la caja.
Se fijan los tornillos laterales que unen el disco duro a la caja.
Se localizan en la placa los bancos IDE. Lo normal es que sean
dos bancos: Primary y Secondary.
Teniendo en cuenta que cada cinta controladora puede soportar
dos discos (duros o CD-ROM). En nuestro ordenador podemos
instalar hasta cuatro discos duros o D-ROM.
Estos bancos tienen capacidad para 40 pines.
Se pincha la cinta controladora IDE en el banco
correspondiente. En primer lugar, se utiliza el banco Primary
IDE Connector y solo si queremos añadir un tercer o cuarto
disco, usamos el Secondary IDE Connector.
En la parte posterior del disco se pinchan:
1. La toma de corriente. Es un conjunto de cuatro cables de
colores.
2. La cinta controladora. La conexión lleva las mismas
muescas que en el banco FDD1 por lo que hay que tener
cuidado de pincharla correctamente.
12
El disco duro lleva unos jumpers (pequeños pines) para
seleccionar si el disco va a ser maestro (es decir, si va a ser el
disco C:/ con el sistema operativo instalado) o esclavo (es
decir, si va a depender del funcionamiento de C./).
Las tres posibilidades de selección del jumper son:
1. MS: Master: Disco duro C:/.
2. SL: Slave: Disco duro D:/ o CD-ROM.
3. CS: Para la autoconfiguración (no aconsejable).
Se reinicia el ordenador.
Entramos en la bios (normalmente pulsando la tecla SUPR).
Elegimos la opción HDD Autodetection.
Si el disco duro está bien pinchado, la bios lo reconocerá.
Salimos guardando los cambios.
CD-ROM (LECTORAS Y GRABADORAS)/DVD-ROM:
El proceso es muy similar, aunque no igual, al de los discos duros. Las variaciones se indican mediante
un asterisco *.
Se abre la caja de la unidad central.
* Se introduce el CD-ROM en su correspondiente ubicación.
La colocación es, como en el caso de las disqueteras, por la
parte frontal de la caja del ordenador.
Se fijan los tornillos laterales que unen el CD-ROM a la caja.
Se localizan en la placa los bancos IDE. Lo normal es que sean
dos bancos: Primary y Secondary.
Teniendo en cuenta que cada cinta controladora puede soportar
dos discos (duros o CD-ROM). En nuestro ordenador podemos
instalar hasta cuatro discos duros o CD-ROM.
Estos bancos tienen capacidad para 40 pines.
Se pincha la cinta controladora IDE en el banco
correspondiente. En primer lugar, se utiliza el banco Primary
IDE Connector y solo si queremos añadir un tercer o cuarto
disco, usamos el Secondary IDE Connector.
13
* En la parte posterior del disco se pinchan:
1. La toma de corriente. Es un conjunto de cuatro cables de
colores.
2. La cinta controladora. La conexión lleva las mismas
muescas que en el banco FDD1 por lo que hay que tener
cuidado de pincharla correctamente.
3. La conexión de la señal de audio.
* El CD-ROM lleva unos jumpers (pequeños pines) para
seleccionar que función va a realizar en el ordenador. Lo
normal es dejarlos tal y como vienen de fábrica (SL o CS).
Se reinicia el ordenador.
Entramos en la bios (normalmente pulsando la tecla SUPR).
Elegimos la opción HDD Autodetection. Si el CD-ROM está
bien pinchado la bios lo reconocerá. Salimos guardando los
cambios.
* En el caso de las grabadoras de CD-ROM y DVD-ROM, una
vez que entramos en Windows, instalamos del driver del
fabricante para poder utilizarlos convenientemente.
TARJETAS:
Este tipo de instalación es válido para todo tipo de tarjetas (vídeo, audio, red, RDSI, SCSI, etc.) así
como para los módem internos.
Instalación:
Se abre la caja de la unidad central.
Se localiza el SLOT adecuado para pinchar nuestra tarjeta.
Hay tres tipos básicos de SLOT.
1.
2.
3.
PCI. Corto y de color casi blanco.
AGP. Corto y de color marrón.
ISA. Largo y de color negro.
Se quita la pequeña pestaña metálica que cierra la caja a la altura del
SLOT.
Se pincha la tarjeta en el SLOT. El proceso se hace con sumo cuidado
para no dañar las patillas de la tarjeta, pero también con firmeza para
que la tarjeta quede perfectamente pinchada.
Se atornilla por la parte superior la tarjeta a la caja.
14
Se reinicia el ordenador. Al entrar en el sistema operativo lo normal
es que sea detectada la tarjeta y se nos pida el driver de la tarjeta para
su instalación.
Hay casos en los que el sistema operativo no detecta la nueva tarjeta y
hay que ejecutar el driver aunque no se nos pida.
Siempre es recomendable utilizar el driver del fabricante y no los que
vienen en el propio sistema operativo. Solo así nos aseguraremos de
que le estamos sacando todo el provecho a la tarjeta.
ACTIVIDAD 3.
 Soltar completamente uno de los módulos de memoria RAM y volver a pincharla.
 Observar cómo esta pinchada la unidad de disquetes (sobre todo la posición del cable de alimentación
y la cinta controladora comprobando la ubicación de la línea roja que marca uno de los laterales).
Soltar completamente la disquetera y la cinta controladora. Sacar la disquetera de la caja. Volver a
instalarla.
 Realizar el mismo proceso con un disco duro. Observar la localización y situación de los jumpers de
selección de función (master o slave).
 Soltar una tarjeta PCI. Volver a colocarla en su sitio.
Dispositivos de almacenamiento
Dispositivo de almacenamiento es todo aparato que se utilice para grabar los datos de la computadora
de forma permanente o temporal. Una unidad de disco, junto con los discos que graba, es un dispositivo de
almacenamiento. A veces se dice que una computadora tiene dispositivos de almacenamiento primarios (o
principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el dispositivo de almacenamiento
primario es la memoria de acceso aleatorio (RAM) de la computadora, un dispositivo de almacenamiento
permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de
almacenamiento más permanentes, como unidades de disco y de cinta.
La velocidad de un dispositivo se mide por varios parámetros: la velocidad máxima que es capaz de
soportar, que suele ser relativa, en un breve espacio de tiempo y en las mejores condiciones; la velocidad media,
que es la que puede mantener de forma constante en un cierto período de tiempo, y, por último, el tiempo medio
de acceso que tarda el dispositivo en responder a una petición de información debido a que debe empezar a
mover sus piezas, a girar y buscar el dato solicitado. Este tiempo se mide en milisegundos (ms), y cuanto menor
sea esta cifra más rápido será el acceso a los datos.
Unidades de información
Bit (Binary Digit o dígito binario): Adquiere el valor 1 ó 0 en el sistema numérico binario. En el
procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el
ordenador y está representada físicamente por un elemento como un único pulso enviado a través de un circuito,
o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 o un 1. La representación de
información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite
15
manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para
representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9.
Código ASCII (American Standard Code for Information Interchange o Código Estándar Americano
para el Intercambio de Información): Esquema de codificación que asigna valores numéricos a las letras,
números, signos de puntuación y algunos otros caracteres. Al normalizar los valores utilizados para dichos
caracteres, ASCII permite que los ordenadores o computadoras y programas informáticos intercambien
información.
ASCII incluye 256 códigos divididos en dos conjuntos, estándar y extendido, de 128 cada uno. Estos
conjuntos representan todas las combinaciones posibles de 7 u 8 bits, siendo esta última el número de bits en un
byte. El conjunto ASCII básico, o estándar, utiliza 7 bits para cada código, lo que da como resultado 128 códigos
de caracteres desde 0 hasta 127 (00H hasta 7FH hexadecimal). El conjunto ASCII extendido utiliza 8 bits para
cada código, dando como resultado 128 códigos adicionales, numerados desde el 128 hasta el 255 (80H hasta
FFH extendido).
En el conjunto de caracteres ASCII básico, los primeros 32 valores están asignados a los códigos de
control de comunicaciones y de impresora —caracteres no imprimibles, como retroceso, retorno de carro y
tabulación— empleados para controlar la forma en que la información es transferida desde una computadora a
otra o desde una computadora a una impresora. Los 96 códigos restantes se asignan a los signos de puntuación
corrientes, a los dígitos del 0 al 9 y a las letras mayúsculas y minúsculas del alfabeto latino.
Los códigos de ASCII extendido, del 128 al 255, se asignan a conjuntos de caracteres que varían según
los fabricantes de computadoras y programadores de software. Estos códigos no son intercambiables entre los
diferentes programas y computadoras como los caracteres ASCII estándar. Por ejemplo, IBM utiliza un grupo de
caracteres ASCII extendido que suele denominarse conjunto de caracteres IBM extendido para sus computadoras
personales. Apple Computer utiliza un grupo similar, aunque diferente, de caracteres ASCII extendido para su
línea de computadoras Macintosh. Por ello, mientras que el conjunto de caracteres ASCII estándar es universal
en el hardware y el software de los microordenadores, los caracteres ASCII extendido pueden interpretarse
correctamente sólo si un programa, computadora o impresora han sido diseñados para ello.
Sistema binario
El sistema binario desempeña un importante papel en la tecnología de los ordenadores. Los primeros 20
números en el sistema en base 2 son 1, 10, 11, 100, 101, 110, 111, 1000, 1001, 1010, 1011, 1100, 1101, 1110,
1111, 10000, 10001, 10010, 10011 y 10100. Cualquier número se puede representar en el sistema binario, como
suma de varias potencias de dos.
Las operaciones aritméticas con números en base 2 son muy sencillas. Las reglas básicas son: 1 + 1 =
10 y 1 × 1 = 1. El cero cumple las mismas propiedades que en el sistema decimal: 1 × 0 = 0 y 1 + 0 = 1. La
adición, sustracción y multiplicación se realizan de manera similar a las del sistema decimal:
Puesto que sólo se necesitan dos dígitos (o bits), el sistema binario se utiliza en los ordenadores o
computadoras. Un número binario cualquiera se puede representar, por ejemplo, con las distintas posiciones de
una serie de interruptores. La posición "encendido" corresponde al 1, y "apagado" al 0. Además de interruptores,
también se pueden utilizar puntos imantados en una cinta magnética o disco: un punto imantado representa al
dígito 1, y la ausencia de un punto imantado es el dígito 0. Los biestables —dispositivos electrónicos con sólo
dos posibles valores de voltaje a la salida y que pueden saltar de un estado al otro mediante una señal externa—
también se pueden utilizar para representar números binarios. Los circuitos lógicos realizan operaciones con
números en base 2. La conversión de números decimales a binarios para hacer cálculos, y de números binarios a
decimales para su presentación, se realizan electrónicamente.
Medidas de almacenamiento de la información
Byte: unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el
equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación.
16
Kilobyte (Kb): Equivale a 1.024 bytes.
Megabyte (Mb): Un millón de bytes o 1.048.576 bytes.
Gigabyte (Gb): Equivale a mil millones de bytes.
En informática, cada letra, número o signo de puntuación ocupa un byte (8 bits). Por ejemplo, cuando se
dice que un archivo de texto ocupa 5.000 bytes estamos afirmando que éste equivale a 5.000 letras o caracteres.
Ya que el byte es una unidad de información muy pequeña, se suelen utilizar sus múltiplos: kilobyte (Kb),
megabyte (MB), gigabyte (GB)... Como en informática se utilizan potencias de 2 en vez de potencias de 10, se
da la circunstancia de que cada uno de estos múltiplos no es 1.000 veces mayor que el anterior, sino 1.024 (2 10 =
1.024). Por lo que 1 GB = 1.024 MB = 1.048.576 Kb = más de 1.073 millones de bytes.
Los sistemas de archivo
Todo dispositivo que almacene datos ha de ser formateado antes de poder utilizarlo; es decir, hemos de
darle la forma para que reconozca cómo ha de almacenar la información. Esta operación la realiza un programa
como el FORMAT (formatear) que lo que hace es darle la forma de sectores y pistas para que un sistema
operativo concreto reconozca ese espacio y a la vez destruye toda la información que contenga el citado
dispositivo.
Cuando guardamos un archivo, instalamos un programa, etc., el ordenador almacena la información en
el disco duro en pequeñas áreas llamadas clústeres. Cuanto menor sea el tamaño del clúster que utilicemos más
eficazmente se almacenará la información en el disco. El tamaño del clúster depende del tamaño de la partición
(cada una de las divisiones lógicas de un disco, que se asemejan a discos duros separados) y el tamaño de la
partición depende del sistema de archivos que utilice. Generalmente, la mayoría de los equipos utilizan una sola
partición.
Las versiones anteriores de MS-DOS y Windows utilizan exclusivamente el sistema de archivos
FAT16, cuestión por la que no podíamos utilizar nombres de archivos que superasen los ocho caracteres. Pero
Windows 98 y la última revisión de Windows 95 vienen con FAT32, sistema de archivos ampliado que mejora el
rendimiento del disco y aumenta el espacio de éste, es de 32 bits y permite usar nombres de archivos y carpetas
largos (de hasta 255 letras).
El sistema de archivos FAT32 presenta las siguientes ventajas con respecto a
FAT16:

Permite que los programas se abran más rápidamente, cerca de
un 36% más rápido.

Utiliza un tamaño de clúster menor, lo que da como resultado
un uso más eficaz del espacio del disco, cerca de un 28% más de
espacio en disco.
Si un disco duro tiene menos de 2 Gb y utilizamos el sistema de archivos
FAT16 y cambiamos a FAT32 no notaremos gran mejoría, pero si nuestro disco duro es mayor de 2 Gb sí
notaremos su eficacia y nos ahorraremos tener que crear varias particiones.
TIPOS DE DISCO
Unidad de disco: dispositivo electromecánico que lee y/o escribe en discos. Los principales
componentes de una unidad de disco incluyen un eje sobre el que va montado el disco, un motor que lo hace
girar cuando la unidad está en funcionamiento, uno o más cabezales de lectura/escritura, un segundo motor que
sitúa dichos cabezales sobre el disco, y un circuito controlador que sincroniza las actividades de lectura/escritura
y transmite la información hacia y desde el ordenador o computadora. Los tipos de unidad de disco más comunes
son las disqueteras, o unidades de discos flexibles, los discos duros y los lectores de disco compacto.
17
Disco compacto o CD, sistema de almacenamiento de información en el que la superficie del disco está
recubierta de un material que refleja la luz. La grabación de los datos se realiza creando agujeros microscópicos
que dispersan la luz (pits) alternándolos con zonas que sí la reflejan (lands). Se utiliza un rayo láser y un
fotodiodo para leer esta información. Su capacidad de almacenamiento es de unos 650 Mb de información
(equivalente a unos 74 minutos de sonido grabado).
CD-ROM (Compact Disc-Read Only Memory): Estándar de almacenamiento de archivos informáticos
en disco compacto. Se caracteriza por ser de sólo lectura. Otros estándares son el CD-R o WORM (permite
grabar la información una sola vez), el CD-DA (permite reproducir sonido), el CD-I (define una plataforma
multimedia) y el PhotoCD (permite visualizar imágenes estáticas).
Disco: Pieza redonda y plana de plástico flexible (disquete) o de metal rígido (disco duro) revestida con
un material magnético que puede ser influido eléctricamente para contener información grabada en forma digital
(binaria). En el caso de un disquete, la cabeza de lectura y escritura roza la superficie del disco, mientras que en
un disco duro las cabezas nunca llegan a tocar la superficie.
Hasta hace poco los disquetes eran flexibles y algo grandes, 5,25 pulgadas de ancho y con capacidad de
360 Kb, lo que hizo que desaparecieran rápidamente. En la actualidad son más pequeños (3,5 pulgadas), algo
más rígidos y con capacidad de 1,44 Mb. Aunque son unos dispositivos poco fiables, ya que les afecta la
temperatura, el polvo, los golpes y los campos magnéticos, se siguen utilizando en nuestros días, y aunque su
capacidad se haya quedado totalmente obsoleta seguirán sobreviviendo por bastante tiempo.
En el caso del disco compacto la superficie del disco es un material que refleja la luz. La grabación de
los datos se realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que sí la
reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información.
Disco duro: Es un dispositivo compuesto por una o varias láminas rígidas de forma circular, recubiertas
de un material que posibilita la grabación magnética de datos. Un disco duro normal gira a una velocidad de
3.600 revoluciones por minuto y las cabezas de lectura y escritura se mueven en la superficie del disco sobre una
burbuja de aire de una profundidad de 10 a 25 millonésimas de pulgada. El disco duro va sellado para evitar la
interferencia de partículas en la mínima distancia que existe entre las cabezas y el disco. Los discos duros
proporcionan un acceso más rápido a los datos que los discos flexibles y pueden almacenar mucha más
información. Al ser las láminas rígidas, pueden superponerse unas sobre otras, de modo que una unidad de disco
duro puede tener acceso a más de una de ellas. La mayoría de los discos duros tienen de dos a ocho láminas.
Actualmente, los tamaños son del orden de varios Gigabytes (de 8 a 30), su tiempo medio de acceso es muy bajo
(algo menos de 20 milisegundos) y su velocidad de transferencia es tan alta que deben girar a más de 4.000 rpm.
El interfaz IDE es el más usado en ordenadores normales, debido a su buena relación prestacionesprecio. El estándar IDE fue ampliado por la norma ATA-2 en lo que se ha dado en denominar EIDE (Enhanced
IDE o IDE mejorado), que acepta hasta cuatro dispositivos. En cada uno de los canales IDE debe haber un
dispositivo maestro (master) y otro esclavo (slave). El maestro es el primero y se le suele asignar la letra C,
mientras el esclavo suele ser el D.
Los dispositivos IDE o EIDE como discos duros o CD-ROMs disponen de unos microinterruptores
(jumpers), situados generalmente en la parte posterior o inferior de los mismos, que permiten seleccionar su
carácter de maestro o esclavo. Las posiciones de los jumpers suelen indicarse en una pegatina en el disco, en los
manuales o grabadas en la placa de circuito del disco duro, con las letras M (maestro) y S (esclavo).
La velocidad del disco viene dado por su modo de acceso: modo PIO, que se activa mediante la BIOS y
modo DMA, cuya ventaja es que libera al micro de gran parte del trabajo en la transferencia de datos y se lo
asigna al chipset de la placa.
Los discos duros SCSI (escasi) tienen la ventaja respecto a los IDE no en su mecánica, sino en que la
transferencia de datos es más constante e independiente del trabajo del microprocesador, por ello se suelen
utilizar en servidores y ordenadores que manejan multimedia y AutoCAD o al realizar una multitarea de forma
intensiva. En resumidas cuentas, suelen ser una buena opción profesional, aunque tienen un alto precio.
18
SISTEMAS DE ALMACENAMIENTO. INSTALACIÓN DE NUEVAS UNIDADES. REALIZACIÓN DE
COPIAS DE SEGURIDAD.
- SISTEMAS DE ALMACENAMIENTO. RESUMEN.
La CPU recoge la información de la memoria RAM y, una vez procesada es necesario que los datos e
informaciones estén soportados en un elemento físico al que la propia computadora tenga acceso; estos
elementos son los denominados "soportes de la información". Asimismo, es necesario disponer de dispositivos
conectados a la computadora capaces de leer en estos soportes la información y escribirla en ellos según se trate
de una lectura o de una escritura. A estos elementos se les denomina unidades/periféricos/dispositivos de
almacenamiento externo.
Tipos de sistemas de almacenamiento:

DISCOS FLEXIBLES: están constituidos por una lámina magnética, recubierta por un plástico que
la protege. Aunque existen distintos tipos, los más frecuentes son los denominados discos de 3 1/2.
Práctica: abrir un disquete.
Estos deben introducirse en un dispositivo especial denominado "unidad de disco" o "disquetera".
Al introducirlo, el protector metálico se desplaza dejando descubierta una pequeña zona del disco,
en la que las dos cabezas, que se encuentran en la disquetera, pueden leer o escribir en ambas caras.

DISCOS DUROS: suelen estar dentro del ordenador y están formados, a su vez, por un conjunto de
discos situados uno encima de otro, unidos por un eje común. Su funcionamiento es análogo al de
un disco flexible, aunque pueden almacenar una cantidad muy superior de información y de modo
mucho más rápido. La capacidad de un disco duro se encuentra en este momento en 6 o más Gb.
Práctica: enseñar disco duro abierto.

CINTAS MAGNÉTICAS (streamer o unidades DAT): son capaces de almacenar gran cantidad de
información en cartuchos similares a un cassette de música. Se utilizan para hacer copias de
seguridad. Presentan como inconveniente que es un dispositivo de acceso secuencial. Permiten
grabar hasta 120 Mb.

CD-ROM (Compact Disk Read Only Memory): permiten almacenar una gran cantidad de
información (normalmente hasta 650 MB). Son análogos a los compact de música. Utiliza
tecnología láser para acceder a la información. Puede contener información de distinto tipo: sonido,
vídeo, fotografías, texto, ...
La información de un CD está almacenada en una sola cara, siguiendo una puesta única en forma
de espiral que comienza en el centro del disco y termina en el borde. Esta pista también está
dividida en sectores.
La información está representada de la siguiente manera: una hendidura en la superficie
corresponde a un valor 1, no hendidura 0. Dicha marca suele consistir en una perforación de una
micra de ancho, consiguiéndose aproximadamente 590 bits por centímetro.

DISCOS MAGNETO-ÓPTICOS: utilizan una tecnología magnética y óptica. Su gran ventaja es
que permiten almacenar una gran cantidad de información mediante la técnica óptica pero, además,
los datos pueden ser modificados y borrados gracias a la tecnología magnética.

DISCOS WORM (Write Once, Read Many): estos discos que se compran vírgenes permiten,
mediante dispositivos apropiados, grabarse. Una vez grabado, sólo se podrá leer y en ningún caso
grabarse de nuevo. Usa tecnología óptica.

DVD: son aparentemente iguales que los CD-ROM, pero su diferencia radica en la capacidad de
almacenamiento. Pueden llegar a 17 Gb, lo que les convierte en sustitutos de los CD-ROM.
El DVD tiene muchas más hendiduras por unidad de superficie grabada que un CD. La unidad
lectora posee un láser de mayor potencia para poder leer con precisión los datos almacenados en él.
Controladoras e Interfaces
19
Las tarjetas controladoras de las unidades de discos son unos intermediarios entre las unidades de discos
y el bus de datos. La controladora interpreta las órdenes que le envía el procesador y hace que la unidad de disco
mueva las cabeza, leo o escriba información, hace comprobaciones para detectar posibles errores de lectura,...
Existen ordenadores donde la tarjeta controladora está conectada a uno de los zócalos del bus del
expansión, sin embargo, en otros casos la electrónica de la tarjeta controladora está integrada en la propia placa
base. En algunos ordenadores la controladora es una tarjeta llamada MULTI I/O, la cual dispone, además, de
puertos serio o paralelo.
Para conectar la tarjeta controladora con la unidad de disco se utiliza un interfaz (cable). Los tipos más
significativos de controladoras son:

ST506/ST412: desarrollado por SEAGATE hacia 1980. Mediante este interfaz, la controladora está unida a
la unidad de disco por un cable de 20 hilos para datos y otro cable de 34 hilos para señales de control.

ESDI: se desarrollo con la idea de corregir todas las deficiencias de la anterior pero sin hacer grandes
modificaciones. Sigue siendo un cable con 20 hilos para datos y otro de 34 para señales de control, pero
mejora el número máximo de cabezales a manejar (256).

SCSI: es un interfaz inteligente, en el sentido de que es realmente una CPU, controlando ella directamente a
los periféricos y descargando de esta forma a la CPU principal de este trabajo.

IDE o bus AT: la controladora se haya físicamente encima de la unidad de disco, reduciendo al máximo la
longitud de las conexiones y eliminando la pérdida de datos. Utiliza un cable de 40 hilos que va desde la
controladora situada en el disco hasta una tarjeta adaptadora que se conecta a una ranura del bus de
expansión.
2.2_ INSTALACIÓN DE NUEVAS UNIDADES
El número de unidades adicionales a instalar está limitado por las características propias del ordenador
que tengamos. Así, si disponemos de un 486, el número de disco duros que podemos tener es de 2 unidades. Si
se trata de un Pentium el máximo es de 4, contando con unidad de CD-ROM, cinta o DVD.
Práctica: ver como se instalaría una nueva unidad.
Podemos también instalar unidades externas a través de una tarjeta SCSI y así podríamos poner
adicionalmente unidades de CD-ROM, discos duros, unidades zip, MiniDisc, DVD, cintas, ...
Podríamos instalar por puerto paralelo (EPP, ver setup) scanners, grabadoras, unidades ZIP, cintas, ...
Práctica: ver las posibilidades de ampliación del equipo que tenemos.
Herramientas del sistema
SCANDISK
Es una herramienta del sistema operativo para verificar y corregir errores en el disco duro o disquete.
Tiene dos opciones: un escaneo Standard y otra completa.
Para ejecutar: inicio --> programas --> accesorios --> herramientas del sistema --> ScanDisk.
También --> escritorio --> mi PC --> seleccionar la unidad a revisar --> botón derecho --> propiedades
--> escoger carpeta herramientas (arriba) --> verificar ahora ...
ADVERTENCIA: cerrar todos los programas abiertos antes de ejecutar esta utilidad.
Ver los puntos "opciones" y "opciones avanzadas". Hacer práctica de ambos tipos de verificaciones.
DESFRAGMENTADOR DE DISCO
20
Esta herramienta permite por un lado poner los sectores correspondientes a un archivo en lugares
consecutivos, haciendo el acceso a dicho archivo más rápido; y por otro, aumentar el tamaño del disco duro (si
tenía una parte significativa del mismo fragmentado).
Explicar FAT. Hacer dibujo de pistas y sectores. Explicar la operación de compactación.
ADVERTENCIA: no usar esta herramienta un día que sepamos que existen posibilidades de que haya
un apagón de luz (tormentas, el diferencial salta con asiduidad, ...) podríamos perder la información del disco
duro. Se puede hacer una copia antes a otra unidad para asegurarnos de que no perdemos nada. Ejecutar sólo
cuando la unidad esté muy fragmentada. La utilidad, al ejecutarla, nos informa de si es necesario defragmentar o
no.
2.4_ COPIAS DE SEGURIDAD
El sistema operativo cuenta con una herramienta para realizar copias de seguridad: BACKUP´s. Pero es
recomendable usar otra herramienta que comprima más y sea sencilla de manejar. Entre los programas que hay
en el mercado para esta tarea, está el WINZIP que es un programa de libre distribución y que se puede obtener
en cualquier servidor shareware, por ejemplo: tucows.arrakis.es o en www.winzip.com. También se encuentra en
el servidor de consejería.

Instalación del programa
Copiar de la red el programa a un directorio del disco duro --> ejecutar "winzip70" --> nos pide la
ubicación de instalación que por defecto es "archivos de programas" --> OK --> NEXT --> aceptamos la
licencia ? YES --> escogemos entre
Start with the winzip Wizard ?
Start with winzip Classic ?
escogemos la segunda opción --> Classic --> NEXT --> express setup --> NEXT --> FINISH
Desde este momento, si nos ponemos en el explorador de Windows, y damos al botón derecho del ratón
nos aparecerá la opción "add to zip" para comprimir.

Comprimir un conjunto de archivos.
Seleccionar el conjunto de archivos que deseamos comprimir --> botón derecho --> ADD TO ZIP -->
en la ventana "ADD TO ARCHIVE" escoger la ubicación del fichero Zip y añadir el nombre de archivo que
deseamos para dicho fichero, por ejemplo, "prueba" --> ADD --> cerramos la ventana que nos ofrece con
todos los ficheros que ha comprimido. Comprobar que dicho fichero está en el lugar que elegimos y fijáis en
el tamaño del mismo.

Comprimir y pasar la copia a diferentes disquetes.
Introducir un disquete formateado en la unidad A --> ejecutar la aplicación Winzip (inicio -->
programas --> winzip --> Winzip 7.0 --> I Agree --> cerrar la ventana de comentarios (tips) si no la hemos
desactivado antes --> NEW --> Create en: poner A: --> nombre de archivo: ponerle nombre --> ADD --> en
"add from" escoger la carpeta donde se encuentran los archivos a comprimir. En la ventana de abajo nos
aparecerán el conjunto de archivos que teníamos en dicha carpeta --> seleccionar los archivos a comprimir -> ADD --> e irá pidiendo tantos disquetes como necesite.

Descomprimir un archivo *.zip.
Una vez instalada la aplicación en un ordenador, únicamente situarnos sobre el fichero zip y dar doble
clic sobre el mismo --> aparece una ventana con los ficheros que contenía el *.Zip --> damos al botón
EXTRACT y escogemos la ubicación donde queremos poner los ficheros descomprimidos --> extract -->
cerrar.
21
El mercado español de PC creció un 27% en 2005
HP encabeza el mercado español de PC con una cuota del 20,7% en ventas y más de 750.000
unidades vendidas, según Gartner. La consultora, que afirma que España es el país de mayor crecimiento
de Europa occidental, atribuye al mercado de consumo este importante incremento.
Según los datos facilitados por la consultora Gartner, las ventas de PC en España alcanzaron un total de
3,63 millones durante el año pasado, lo que supone un incremento del 27,1% respecto al año anterior y coloca a
nuestro país en el primer puesto de Europa occidental en crecimiento de unidades. Asimismo, el mercado
español fue el quinto mayor de Europa occidental.
La consultora atribuye estos resultados al crecimiento del mercado de consumo, situado en el 33,6%,
mientras que el profesional se incrementó en un 23,2 por ciento en el mismo período.
Por fabricantes, HP se situó en primer lugar con unas ventas de 752.398 equipos (sobremesa y
portátiles), seguida de Acer con 613.708 unidades. Completan la lista Dell, Fujitsu Siemens y Airis con unas
ventas de 320.000, 212.000 y 197.000 unidades, respectivamente.
La mayor tasa de crecimiento fue la experimentada por Fujitsu Siemens Computers, con un 78,5%,
seguida de Dell, que incrementó en un 49,7% el número de unidades vendidas.
http://www.gartner.com/
Ya está lista para salir al mercado la nueva generación de reproductores de "DVDs". Un nuevo formato
de alta definición que acaba de presentar Toshiba y, por supuesto, será totalmente incompatible con la propuesta
de Sony, el otro gran fabricante. Sólo uno de los dos conseguirá triunfar.
La siguiente generación de DVD llegará a los comercios en Abril, al menos la ideada por la
multinacional Toshiba, denominada HD DVD. Sin embargo, las primeras películas en este nuevo formato de
DVD no llegarán hasta el verano. Los primeros reproductores de DVD compatibles con el nuevo estándar
llegarán al mercado aprovechando las fiestas navideñas. Y para tener en las manos los primeros grabadores habrá
que esperar hasta 2007.
La nueva tecnología desarrollada por Toshiba, que ha sido aprobada como un estándar por el DVD
Fórum, además de ofrecer mejor calidad de imagen y sonido, incrementa la capacidad de almacenamiento por
tres (hay disco de una capa de 15 Gb y de dos capas de 30 Gb, y lanzarán en cuanto se aprueben otros de tres
capas de 45 Gb).
La compañía prevé que en tres años esta tecnología esté totalmente extendida. Su mejor baza para la
transición, en comparación con su contrincante en la guerra por este mercado, que es Sony con el Blue Ray Disc
(sus discos almacenan entre 25 Gb y 50 Gb), es que el nuevo formato es compatible con los actuales DVD, esto
es, que las películas antiguas que el usuario tenga en su casa van a poder verse en los nuevos reproductores
preparados para esta nueva generación de DVD.
Los discos de HD DVD no podrán verse en los reproductores actuales. El precio, tanto de los
dispositivos como de los discos, será similar al de los actuales y en marzo verán la luz los primeros
reproductores domésticos de HD DVD. "Nosotros apostamos por la convergencia digital con la integración del
ordenador portátil y la televisión" dijo este martes Javier Pascual, presidente de Toshiba en España.
22
2.- CONOCIMIENTOS DE HARDWARE BÁSICO DEL ORDENADOR EN EL ÁREA DE TECNOLOGÍA
Los dispositivos de entrada tienen una función determinada: suministrar datos a la CPU. Veamos los
más importantes:
TECLADO: Es quizás el periférico al cual se presta menor atención. Y no hay razón para este desaire ya que es
un dispositivo esencial y frente al que se pasan muchas horas. Siendo esto así, elegir un teclado de calidad
repercutirá también en el rendimiento de nuestro trabajo, sobre todo si éste está basado en el procesador de
textos.
Las características principales que describen un teclado son las siguientes:
Sistema de conexión: Esta puede ser mediante AT (o DIM de 5 pines): un conector redondo del tamaño de un
pulgar; PS-2(o Mini-DIM): parecido al anterior pero más pequeño de diámetro; o USB, es un nuevo sistema de
conectividad que permite instalar y desinstalar periféricos "en caliente" (sin apagar el ordenador). Hay otros,
pero estos son los principales. Debemos elegir el sistema adecuado para poder conectar el teclado a nuestra
placa. Existen en venta, no obstante, adaptadores entre DIM a Mini-DIM y viceversa.
¿Mecánico o membrana?: El teclado mecánico basa el mecanismo de pulsación de las teclas en unos muelles o
resortes. Los de membrana utilizan para este fin un sistema parecido al de los mandos a distancia de las TV. Es
decir, una membrana de plástico realiza el contacto y vuelve a la tecla a su posición inicial. Esta característica
hace al teclado mecánico más robusto y resistente, pero también de tacto más duro.
Diseño: Los teclados ergonómicos, con hot-keys (teclas de acceso rápido configurables), con mini-joystick, etc;
son elecciones disponibles en el mercado las cuales solo hay que valorar si su precio es acorde con nuestras
necesidades.
Posibles problemas: Si nuestro teclado no responde debemos verificar que la conexión es firme y que el cable no
está deteriorado. Algunos teclados antiguos poseen un interruptor el cual debemos accionar en un sentido u otro
dependiendo de si usamos un PC XT (8086 y 8088) o AT (286 y superiores). Si lo que fallan son sólo algunas
teclas, el problema quizás radique en la suciedad acumulada o el vertido de algún fluido sobre el teclado. Las
teclas pueden quitarse y limpiarse fácilmente. Si el problema persiste quizás el error sea interno, del conector o
incluso de la propia placa. Otro caso es cuando el monitor representa letras o caracteres distintos a los que
estamos escribiendo: casi con total seguridad el problema es que no tenemos configurado en nuestro Sistema
operativo el idioma del juego de caracteres.
RATON. A tener en cuenta:
Sistema de conexión: Vale lo dicho para los teclados. También es frecuente la conexión al puerto serie.
Tecnología utilizada: Aquí podemos diferenciar: ratones mecánicos, son los más comunes, la guía del puntero se
realiza mediante una bola que se desliza sobre unos ejes; ópticos, utilizan tecnología óptica, lo que los hace más
precisos; opto-mecánicos, un híbrido. Existen otras tecnologías, pero mucho menos utilizadas.
Diseño: También encontramos los que apuestan por la ergonomía, los colores y formas originales, etc. Dentro de
este periférico podemos diferenciar los Track-ball: dispositivos de puntero ideales para los que no disponen de
mucho espacio de escritorio. En ellos, en vez de desplazar el ratón sobre una alfombrilla, el movimiento se
realiza girando una bola o rodillo sobre un eje fijo.
Número de botones: Dos o tres. Con dos normalmente es suficiente. El tercero (central) normalmente es
configurable y se utiliza en contadas aplicaciones. También los hay con botones laterales, ruedas, etc. Si esto es
útil o un engorro es algo que deberá valorar el usuario.
Posibles problemas: Algunos ratones necesitan la instalación manual por parte del usuario de su software
específico para funcionar, sobre todo bajo entornos que no sean Plug and Play. Si se ha utilizado adaptadores
para la conexión, por ejemplo DIM a serie, debemos asegurarnos mediante la lectura atenta del manual que el
dispositivo soporta dicha posibilidad. La suciedad o los elementos extraños pueden igualmente influir en el
rendimiento de este dispositivo.
23
JOYSTICK. A tener en cuenta:
Sistema de conexión: Van conectados al puerto juegos de la placa, al de la tarjeta de sonido, al puerto o puertos
de una tarjeta de juegos, o eventualmente, al puerto serie o paralelo. Aunque la opción del puerto de la tarjeta de
sonido es con mucho la más utilizada por ahorro de recursos.
Tecnología: Aquí dependiendo del tipo de joystick que estemos hablando (palanca, joypad, volante, etc) la
tecnología utilizada es variopinta. A pesar de ello es útil optar por mandos robustos y que ofrezcan buen soporte
de software. Los basados en tecnología digital son ideales para los que requieran precisión en sus "batallas"
particulares :)
Muchos joystick permiten de forma sencilla y simplemente mediante el uso de un cable especial (en forma de
Y), la utilización de dos dispositivos simultáneos. Gran cosa para compartir la acción con amigos/as.
Posibles problemas: Lo más frecuente son los provenientes de la mala configuración del software. Estos
dispositivos necesitan ser instalados y calibrados mediante los programas incluidos antes de poder ser utilizados.
Un ESCÁNER es un periférico el cual nos permite digitalizar imágenes o texto con el fin de pasar esta
información a un fichero, normalmente con el fin de modificarlo o almacenarlo en soportes de alta capacidad.
A tener en cuenta:
Sistema de conexión: Lo más extendido es conectarlos al puerto de impresora y ésta, a su vez, al escáner. Con lo
que con el uso de un sólo puerto tendremos dos dispositivos. También existen otras opciones, como la conexión
a puerto SCSI o USB.
Sistema de escaneo: Los escáners de sobremesa permiten tratar imágenes provenientes de libros o revistas. Los
de rodillo o las impresoras convertidas a escáner (mediante la utilización de un cabezal especial) tienen el
inconveniente de limitar nuestro trabajo a documentos que puedan pasar por su torno. Los escáners de mano son
muy versátiles pero también poco útiles para trabajos que requieran gran resolución.
Resolución: Hay en el mercado gran oferta en capacidad de resolución. Esto afecta a la calidad con la que
podremos obtener el documento resultante. Ésta se mide en dpi (dot per inchs = puntos por pulgada, también
ppp). Es frecuente encontrar información sobre la resolución real y la resolución por interpolación (mediante
software), las cuales no son comparables y deben tenerse en cuenta a la hora de elegir varias ofertas. No obstante
hay que tener en cuenta que para cualquier usuario normal o semi-profesional, un escáner de gama media-baja es
más que suficiente, ya que éstos ofrecen resoluciones superiores a las que nuestra memoria RAM puede soportar
(y también nuestro disco duro).
Capacidad de escaneo: Los escáners de sobremesa y rodillo normales aceptan tamaños de hasta DIN A4 o folio.
Otros tamaños mayores requerirán escáners especiales.
El número de pasadas de foco necesarias o el ruido, puede ser otro factor a tener en cuenta.
Posibles problemas: Una vez más debemos asegurarnos que nuestro escáner está bien conectado al puerto
correspondiente, y que dicho puerto es el mostrado en el software de diagnóstico. Los drivers de configuración
deben estar correctamente instalados y quizás sea necesario reiniciar el equipo. Un escáner necesita una toma
externa de tensión, verificar ésta. Algunos escáners pueden apagarse y encenderse mediante los programas
suministrados, verificar esta posibilidad.
La unidad de CD-ROM, así como los DVD, es la única respuesta al aumento de tamaño que en los últimos
tiempos han experimentado los programas. Prácticamente toda la información electrónica se distribuye ya en
CD-ROMs y la caída de precios de las unidades grabadoras de este soporte lo han hecho aún más popular.
Siendo esto así, el lector de CD-ROMs es un dispositivo imprescindible en cualquier PC.
24
Sistema de conexión: Lo habitual es a puerto IDE (como los discos duros), pero también podemos encontrarlos a
puerto SCSI e incluso externos a puerto paralelo. Ver si disponemos de un puerto libre adecuado y, en el caso de
los internos, de hueco en la caja para alojarlo, es lo primero que deberemos averiguar.
Tiempo medio de acceso (TMA): Es el tiempo, medido en milisegundos, que tarda como media la cabeza lectora
en situarse en un punto concreto del disco. A menor tiempo, lógicamente, más efectividad y velocidad en la
lectura de datos.
Velocidad: Medida en kilobytes por segundo (Kb/s), nos indica la velocidad máxima de transferencia de datos.
La transferencia de un CD-ROM x1 es 150Kb/s. Tomando eso como referencia podremos averiguar fácilmente
qué nos indica las unidades llamadas x2, x4,...., x40. Efectivamente hay que multiplicar el número entero por
150 y tendremos la velocidad de transferencia máxima de nuestra unidad. Cuanto más rápida, menos tardará en
leer una cierta cantidad de datos. Eso sí, en unidades muy rápidas debemos asegurarnos que el nivel de ruido
durante el funcionamiento es aceptable.
Memoria buffer: Indica si la unidad dispone de una cantidad de memoria donde almacena datos que después
serán reclamados por el microprocesador, acelerando así su lectura. Mejor si tiene, y cuanta más, mejor.
Compatibilidad de formatos: Pese a lo que pueda parecer a simple vista, no todos los CD-ROMs están grabados
en el mismo formato. Un compacto musical, un programa o un DVD pueden tener aspecto parecido pero no
contienen lo mismo ni todos los lectores son capaces de reconocerlos y leerlos. Cualquier unidad moderna podrá
leer la mayoría de los formatos; no así si disponemos de una con más de 2 o 3 años de antigüedad.
Posibles problemas: Las unidades de CD-ROM internas, como los discos duros, van conectados al cable IDE
que le comunica con la placa base. Dicho cable tiene, por norma general, capacidad para dos dispositivos, con lo
que éstos deben ser configurados al instalarse de modo que indiquemos a la placa cual de los dos dispositivos
será el maestro y cual el esclavo. Esta denominación no expresa más que la necesidad por parte de la placa de
diferenciar ambos dispositivos con el fin de poder referirse a uno u otro. Se denomina maestro al dispositivo
situado en el extremo del cable IDE, y esclavo al que quedaría en medio, entre la placa y el extremo. Si ésta
configuración no es correcta, la placa no reconocerá adecuadamente los dispositivos. Dicha configuración se
lleva a cabo mediante juníperos o interruptores manipulables. La instalación correcta del software y la firmeza
del conector de corriente (proveniente de la fuente de alimentación de la caja) son otras medidas a tomar en
cuenta.
DISPOSITIVOS DE SALIDA
Aquí tenemos grandes conocidos como:
La compra de un monitor nunca debe parecernos una cosa baladí. Resulta curioso ver como, en ocasiones, se
ofertan ordenadores montados con magníficas configuraciones basadas en el hardware más actual y sin embargo
incluyen (¿con intención de no engordar el ya por sí abultado precio?) un monitor de bajas prestaciones. A pesar
de que poco a poco el usuario medio es cada vez más exigente y conocedor de sus intereses, no es extraño
conocer a alguien que prefiere disponer de una flamante Voodoo 3 y un monitor "barato". Esto es un grave error.
Tener una Voodoo 3 no tiene nada malo, el error está en la desidia mostrada por el monitor. El monitor es, sin
duda alguna, el dispositivo que más afecta a nuestra salud. Queramos o no, cada día pasamos un número
diferente de horas a un palmo de una pantalla, a una resolución mayor que la de nuestra televisión del salón.
¿Qué piensan nuestros ojos de esto? No piensan nada, los ojos no piensan, pero si lo hicieran estarían bastante
preocupados por el tema. La tecnología utilizada para proteger esos dos preciados bienes nunca está de más. Los
monitores no entrelazados, sin parpadeos, etc son casi un estándar ya. Pero no siempre fue así, y todavía hay
monitores que no cumplen esas exigencias. Por otro lado un monitor que ofrezca buena resolución, el tamaño
adecuado y una aceptable pureza de color pueden influir de forma determinante en nuestro rendimiento de
trabajo, sobre todo si nos dedicamos al diseño o retoque fotográfico. También en los juegos el papel de monitor
es crucial. De nada sirve una buena tarjeta gráfica sin un monitor que acepte la resolución y millones de colores
que ésta nos da.
Tras este alegato en favor del subestimado monitor, veamos las características a tener en cuenta para una buena
compra:
25
Tecnología: Tubo de rayos catódicos, lo normal; o cristal líquido, lo normal en portátiles y monitores
ultramodernos de pantalla plana. También debemos prestar atención a otras características relacionadas como si
el tubo es Trinitron (mas caro pero de mayor pureza de color). En la elección debe primar el estudio de nuestras
necesidades y también de nuestra economía.
Resolución máxima: Indica a la máxima resolución (en ppp, puntos por pulgada) que puede trabajar el monitor,
lo cual como vemos no depende sólo de la tarjeta gráfica. Cuanta más mejor.
Tamaño: Medido en pulgadas (= 25,4 mm) se refiere a la diagonal, es decir, la distancia entre una esquina y su
opuesta. El tamaño es importante sobre todo cuando se trabaja con varias aplicaciones a la vez o cuando
utilizamos programas que a su vez abren otras muchas ventanas (programas de diseño). También si por cualquier
otra necesidad necesitamos una pantalla que sirva también para presentaciones o reproducción de vídeo. Un
monitor de 15 pulgadas es una buena opción para el usuario medio, a partir de ese tamaño los precios se
disparan.
Tamaño del punto: Llamado también dot pich. Se refiere al diámetro, medido en mm, de los orificios por los
cuales pasan los rayos catódicos. A menor tamaño, más definición tendrán las imágenes vistas en pantalla. Lo
normal es 0,25 - 0,28.
Baja radiación: Como su nombre indica define que existe una baja emisión, por parte del tubo, de radiaciones
electrostáticas y electromagnéticas. Sin ésta característica la única solución será utilizar un buen filtro de pantalla
o un parche para cada ojo.
MultiSync (Multifrecuencia): Si nuestro ordenador es MultiSync podrá adaptarse automáticamente (o
manualmente) a diferentes modos de vídeo o resoluciones. Con ello, junto con el control digital de la imagen,
podremos utilizar siempre todo el tamaño de pantalla.
Otros aspectos como los monitores multimedia (con micrófono y altavoces incorporados), pantallas planas, el
diseño, etc. Deberán tenerse en cuenta dependiendo de las necesidades.
Posibles problemas: Los más frecuentes son los relacionados con configuraciones gráficas no soportadas por
nuestro monitor. Si tenemos una tarjeta que nos permita altas resoluciones, por ejemplo 1600x1200 algo normal
ya, pero nuestro monitor no lo permite, entonces la pantalla puede quedar totalmente negra o verse de forma
distorsionada. La única solución es volver a una resolución aceptada.
IMPRESORA
Un elemento casi obligatorio si se posee un ordenador es una impresora. ¿Quién no tiene que imprimir alguna
vez un curriculum, una carta o una foto? Claro que también hay quien imprime una carta al mes y quien imprime
1000 al día. Hay quien busca resolución fotográfica y quien nunca imprime en color. Para eso está la variedad.
No me gustaría pecar de pesado, pero vuelvo a lo mismo: las necesidades propias de cada uno. Preguntémonos
cuál va a ser el uso que le daremos a este dispositivo. ¿Necesitamos realmente que imprima con calidad
fotográfica? ¿Verdaderamente es importante que sea capaz de realizar 15 páginas por minuto? ¿Nos vale la pena
pagar más por una láser? Veamos qué hay que tener en cuenta:
Tecnología: Hoy día lo más extendido son las impresoras de inyección o láser. Pero también nos podemos
encontrar con más de las que creemos de las de tipo aguja. Las impresoras de aguja imprimen como una
máquina de escribir. Es decir, por contacto de unas piezas metálicas (agujas) con una cinta impregnada de tinta y
el papel. Sus inconvenientes es que son ruidosas, de baja resolución y no muy limpias. ¿Ventajas? Puedes
encontrar alguna de segunda mano casi gratis. Y si total, sólo la quieres para imprimir el borrador de tus apuntes
de derecho.... :) Las de inyección, como su nombre indica, funcionan por inyección directa de la tinta al papel
(eso sí, a una ínfima distancia). Poseen resoluciones casi fotográficas y son mucho más silenciosas que las
anteriores. Los inconvenientes son sobre todo el alto precio de los cartuchos de tinta, en ocasiones de escándalo.
Las impresoras láser, pese a ser la opción más cara en principio, es la más recomendada para los usuarios que
necesiten imprimir gran cantidad de documentos ya que el precio por una impresión de buena calidad es bastante
bajo.
26
Resolución: Indicada en ppp (puntos por pulgada) o matriz de puntos (puntos ancho x puntos largo). A mayor
resolución, más calidad podríamos llegar a obtener en nuestras impresiones.
Admisión de papel: Debemos fijarnos tanto en el tamaño del papel con el que es capaz de trabajar; como si
admite modo vertical o apaisado; si posee alimentador de hojas automático y de qué capacidad; y si admite
sobres, etiquetas y papeles especiales.
¿Color?: No todas las impresoras pueden imprimir a color. Algunas necesitan la compra adicional de un
cartucho de color que no viene incluido en el precio. También no todas ellas poseen la misma calidad de
impresión a color. Es algo que deberemos valorar.
Tamaño y diseño: No todas son iguales, pero su formato exterior no es lo único que las diferencia. Una
impresora muy pequeña puede ser una magnífica solución a la falta de espacio o como compañera de un equipo
portátil. Sin embargo, suelen tener un gran gasto en consumibles debido a que como los cartuchos de tinta
también son pequeños se gastan rápidamente y por su peculiar formato reducido normalmente valen más que los
otros (que de por sí ya son caros)
Consumibles: Quizás el aspecto que el usuario doméstico más debería mirar con lupa. Los precios de los
consumibles: cartuchos, toners, etc, pueden resultar un gran handicap a la hora de decidirnos. Ciertas marcas
venden impresoras baratas pero con un gasto en consumibles superior a sus competidores (bien sea porque
consumen más o porque el precio es mayor). Si no queremos llevarnos un susto de cuidado debemos elegir
impresoras con consumibles baratos y fáciles de encontrar en los comercios. No teniendo esta precaución nos
puede salir cuenta comprar una impresora nueva cada vez que se nos gaste la tinta :-P
Velocidad de impresión: Número de páginas por minuto, contando siempre conque la prueba se realiza con un
DIN A4 completamente escrito por una cara. Normalmente veremos la velocidad en B/N y color. Cuanto más
rápido mejor, pero no deberíamos desembolsar una gran cantidad de dinero sólo por esto.
Posibles problemas: Sirve lo dicho para el escáner. Pero precisamente los usuarios con escáner e impresora
conectada a éste deben tener en cuenta que las más de las veces hay que tener el escáner encendido para poder
imprimir. Algunas impresoras necesitan necesariamente cables de doble flujo para funcionar. ¿Está el puerto
correcto especificado en el software de diagnóstico? ¿Están correctamente instalados los cartuchos? Revise esos
puntos.
¿Y los dispositivos que pueden enviar y recibir datos, como por ejemplo un disco duro?
Con el paso del tiempo el software va perfeccionándose, aprovechando la también creciente capacidad
del hardware. Sin embargo, esto trae consigo un inconveniente de momento inevitable: el aumento de tamaño de
los programas. No hace mucho tiempo, programas completos y totalmente profesionales cogían en tan sólo un
disquette (1,44 Mb) o varios de ellos. Ahora se mide por cientos de megas el tamaño de gran parte de los
programas, juegos e incluso demos (demostraciones de programas o juegos). Los 650 Mb de capacidad de un
CD-ROM se han quedado pequeños para la voraz necesidad de ciertos programas. El dispositivo que más achaca
esto es el disco duro. Estos programas mencionados deben instalarse en él para poder ser ejecutados y, además,
convivir con otras aplicaciones igualmente voluminosas. Es por ello que poseer un disco duro de gran capacidad
-cuanta más mejor- es ya una necesidad.
Modo de conexión: La opción IDE UltraDMA, una versión mejorada de la conexión IDE, es la más frecuente en
ordenadores con placas modernas. El SCSI, como vimos, es más rápido pero requiere una tarjeta controladora
adicional. También podemos elegir la opción de discos duros externos o extraíbles mediante un dispositivo
especial, opción recomendada sólo si está justificado por necesidades de movilidad de la información.
Capacidad: Medida ya en Gb. Decidirnos por un disco duro (también HD = Hard Disk) de 6 ó 8 Gb no es
ninguna barbaridad. Es interesante comparar la relación precio por Mb para decidirnos por la opción ideal.
Tiempo medio de acceso (TMA): Es el tiempo que necesita las cabezas lectoras (medido en milisegundos) para
situarse en cualquier punto aleatorio del disco. A menor tiempo, mayor rendimiento y velocidad de éste.
27
Posibles problemas: Léase lo dicho para los CD-ROMs. ¿Posee Ud. un buen antivirus actualizado? Pues no
espere mucho o ciertos problemas ya no tendrán remedio (es importante que realice copias de seguridad de toda
su información importante)
Dispositivo imprescindible aún hoy. El disquete sigue siendo, pese a sus escuetos 1,44 Mb, un soporte
ampliamente utilizado de transporte de información. En la adquisición de una disquetera simplemente debemos
confiar en una marca de confianza. Últimamente están obteniendo cotas de mercado las llamadas
superdisqueteras, que son dispositivos de almacenamiento masivo con compatibilidad con los disquetes
normales. Ampliaremos la información sobre estos dispositivos en la próxima sección.
Posibles problemas: Aunque parezca cosa de risa, los problemas más frecuentes encontrados en el
malfuncionamiento de una disquetera son por la incursión de objetos extraños en su interior. También hay que
tener en cuenta que, pese a lo que suele creerse, una disquetera no es un dispositivo eterno y debe cambiarse
después de un uso prolongado o si comienzan a detectarse errores.
Muchas veces no es suficiente con poseer un disco duro de
gran capacidad. Por necesidades particulares, quizás sea necesario almacenar gran cantidad de datos para su
transporte, copia de seguridad o simplemente porque nuestro volumen de datos rebasa el tamaño de nuestro disco
fijo. Para ello disponemos de una amplia oferta de unidades que nos dotan de esa capacidad extra. No obstante,
una vez más debemos valorar nuestras necesidades y comparar las distintas opciones que poseemos para
solucionar nuestro problema. Algunos pueden ser demasiado caros; otros, insuficientes.
Sistema de conexión: Exciten unidades con conexión a IDE (como los discos duros), SCSI, puerto paralelo,
internas y externas. Nuestra decisión debe depender primeramente de si disponemos de puertos libres para la
conexión del nuevo dispositivo y, en el caso de unidades internas, de si disponemos del hueco en la caja para
alojarlo.
Tiempo medio de acceso (TMA): Al igual que en los discos duros, esta característica mide la velocidad de la
unidad. Unidades más rápidas leerán y grabarán más deprisa, acercándose algunas de ellas a las características de
los discos duros.
Capacidad: Todas estas unidades disponen de unos soportes extraíbles que es donde quedan grabados los datos.
Un magneto-óptico, una unidad Zip o una regrabadora de CD-ROMs, poseen características distintas en cuanto a
capacidad de almacenamiento. No es lo mismo si queremos guardar alrededor de 100 Mb ó 100 Gb. De la
elección que hagamos depende que la segunda opción sea o no viable económicamente.
Precio del soporte: Ocurre un poco como con las impresoras. El precio de la unidad debe influirnos, pero tanto o
más debe hacerlo el precio del soporte utilizado por ésta. A poco que busquemos veremos que en algunos casos
el precio por Mb es de infarto.
Compatibilidad: Ciertos dispositivos de almacenamiento están más extendidos que otros. Si pensamos
intercambiar información con otros usuarios debemos tener presente que unidades usan ellos o si disponen de
algún medio de leer de nuestro soporte. Si no es así, será imposible el intercambio.
¿Unidad o BackUp?: Debemos diferenciar entre los dispositivos que permiten leer y escribir directamente desde
el soporte extraíble (es decir, como si fueran una unidad más de disco duro) y los que sólo sirven para realizar
BackUps (copias de seguridad) de la información. En éste último caso la información no podrá ser consultada
desde la unidad, debiendo ser restaurada primeramente al disco duro.
Posibles problemas: Los mismos que un CD-ROM o disco duro. En el caso de los dispositivos SCSI debemos
asegurarnos de haber colocado correctamente los terminales (que indican a la tarjeta controladora el final de la
28
cadena de dispositivos SCSI) y los números de identificación (que permiten a la controladora diferenciar a cada
dispositivo). La correcta instalación y configuración del software es imprescindible para el correcto uso de estos
dispositivos.
El MÓDEM (MOdulator-DEMulator = Modulador-Demulador) se encarga de traducir la información digital
que entiende nuestro ordenador en analógica, la que puede viajar por la línea telefónica, y viceversa. Con ello
tenemos una ventana abierta a la comunicación a todo aquel sitio donde haya un teléfono.
Sistema de conexión: Vale lo dicho anteriormente. Los hay a puerto ISA o PCI, también externos a puerto
paralelo. Por tanto debemos ver si disponemos de puertos libres donde alojarlo.
Velocidad: Nos indica la velocidad de transmisión de datos, medida en baudios, que es la unidad de transmisión
telegráfica equivalente a un impulso por segundo. Cuanto más rápido sea nuestro módem más fluida será nuestra
comunicación con el exterior.
Fax/Voz: Nos indica si podremos utilizar el módem para el envío y recibo de faxes. Los módems con Voz nos
dan la posibilidad de almacenar y reproducir llamadas de voz provenientes de la línea telefónica.
Compatibilidad con normas/Hayes/Protocolo de corrección de errores: El sistema de transmisión de datos está
regido por normas internacionales, así como los protocolos utilizados durante su funcionamiento. Debemos
asegurarnos que disponemos de compatibilidad con dichas normas.
Posibilidad de ampliación por software: Algunos módems disponen de una PROM (Memoria programable)
capaz de actualizarse en un futuro mediante software proporcionado por el fabricante. Con ello conseguiríamos
adaptación a nuevas normas o mejoras que de otro modo nos obligarían a cambiar de módem.
Posibles problemas: Quizás sea uno de los dispositivos que más problemas da a la hora de configurarlos, sobre
todo los internos. Bajo Windows, el módem frecuentemente adquiere recursos de sistema utilizados ya por otros
dispositivos. Con lo que dejan de funcionar los dos. Debemos, en éste caso, asignar manualmente los recursos.
TARJETA DE SONIDO. Desde los primeros PCs que sólo disponían de un pequeño altavoz que emitía un
agudo zumbido a modo de señal, hasta las nuevas y sofisticadas tarjetas de sonido hay un largo trecho. Hoy en
día con la incorporación de las aplicaciones multimedia el sonido ha pasado a tomar un papel relevante en las
configuraciones de los usuarios. Tarjetas de sonido con características semi-profesionales son ampliamente
utilizadas por el usuario medio. Veamos como diferenciarlas.
Sistema de conexión: Hasta hace poco era invariablemente a puerto ISA, pero las nuevas tecnologías han
necesitado de la utilización de puertos PCI.
Tecnología de sintetizador: Indica qué circuitos se encargan de realizar la sintetización del sonido. De ello
depende la capacidad de la propia tarjeta.
Número de instrumentos: Indica el número máximo de instrumentos que la tarjeta puede reproducir al mismo
tiempo.
Memoria: Dependiendo de su cantidad obtendremos mayor cantidad y calidad en el número de instrumentos.
Algunas tarjetas permiten utilizar memoria RAM como memoria de audio.
Tipo de los conectores de entrada/salida: Nos informa cuántos y de qué tipo son los conectores de entrada y
salida de la tarjeta de sonido a otros dispositivos. Si disponemos de un periférico que pensamos conectar a la
tarjeta de sonido (teclado, altavoces especiales, etc) debemos verificar que disponemos del conector adecuado
para hacerlo.
Tecnología 3D, Sourround, etc: Dichos efectos de realce y mejora del sonido son adecuados para necesidades
donde la calidad del sonido sea importante. Las últimas tecnologías son caras siempre.
29
No hay que olvidar que una buena tarjeta de sonido no es nada sin un buen juego de altavoces que le acompañen.
Hay que saber equilibrar la compra en este sentido.
Posibles problemas: Las tarjetas de sonido necesitan de la correcta instalación del software en sistemas
operativos que no soporten Plug and Play. Por ejemplo, bajo DOS, se necesitan realizar cambios en los archivos
de inicio (Autoexec.bat y Config.sys). Bajo Windows 95/98, el problema de asignación de recursos puede darse
en tarjetas no soportadas con lo que deberían asignarse por el usuario.
TARJETA GRAFICA. Desde el nacimiento de Windows el modo de trabajo gráfico es habitual en la mayoría
de las aplicaciones. Con ello se creó la necesidad de unas tarjetas gráficas capaces de reproducir colores. Primero
fueron las tarjetas CGA, HERCULES, EGA (16 colores); VGA (256 colores) y con la incorporación de memoria
gráfica por encima de 1Mb las SuperVGA que pueden alcanzar hasta millones de colores. Estas últimas permiten
imágenes con calidad fotográfica. A raíz, sobre todo de las aplicaciones y juegos en 3 dimensiones, surgió
igualmente la necesidad de incorporar tecnología capaz de ejecutar la tremenda cantidad de polígonos y cálculos
que una imagen tridimensional posee. Nacieron así las tarjetas aceleradoras. Y esto por supuesto, no acaba aquí.
El nuevo bus AGP, la reducción en el precio de la memoria gráfica e incluso la incorporación de varios
procesadores gráficos trabajando a la vez han dado un empujón definitivo para la valoración de este dispositivo
entre los usuarios. Algunos de ellos, sobre todo el sector forofo de los juegos 3D, pagan grandes sumas de dinero
por nuevas mejoras en el realismo y resolución de su mundo virtual.
Sistema de conexión: Hasta la llegada del bus AGP, el puerto PCI era la única opción. Ahora podemos encontrar
las dos versiones en la mayoría de las tarjetas.
Tecnología: El chip que comanda la tarjeta, y las mejoras de tecnología (como la doble textura, efecto niebla,
etc) son las características que marcan su rendimiento bajo ciertas aplicaciones. La tecnología de procesadores
tipo Voodoo, NRiva TNT, Intel 740, etc están ampliamente extendidas entre los usuarios de juegos 3D. Otros
chips son igualmente buenos e incluso mejores, pero están optimizados para aplicaciones tipo CAD (=Diseño
asistido por ordenador) y no responden adecuadamente en juegos.
Memoria gráfica: La memoria gráfica (medida en Mb) determina su limitación con respecto al número de
colores (recordemos el primer párrafo) y resolución. Cuanta más memoria dispongamos más capacidad tendrá
nuestra tarjeta de alcanzar resoluciones mayores y a mayor número de colores. Es importante averiguar si dicha
memoria podrá ser ampliada en un futuro.
Resolución máxima: Es una característica directamente proporcional a la cantidad de memoria pero también
influida por la tecnología utilizada. La resolución se mide en puntos por líneas.
Aceleración 3D: Hay que distinguir, en principio, entre las tarjetas gráficas y las tarjetas aceleradoras. Las
primeras son esenciales para el funcionamiento del sistema y su misión es proporcionar una señal de vídeo al
monitor. La tarjeta aceleradora nace como compañera de la primera y su misión es descargar del trabajo de
cálculo y descompresión de texturas de vídeo a la tarjeta principal y al propio microprocesador, acelerando de
este modo la ejecución de los gráficos. Sin embargo, últimamente están apareciendo tarjetas que realizan ellas
mismas ambas funciones. Es lo que podríamos llamar tarjetas 2D/3D. Capaces de servir tanto para entornos
gráficos monocromáticos como para exigentes aplicaciones de reproducción de vídeo o 3D. La segunda opción
es recomendable por economía de recursos, pero también hay quien prefiere tenerlas como dispositivos
independientes para así poder actualizar cualquiera de ellas en el momento que guste. Debemos asegurarnos que
no adquirimos una tarjeta aceleradora (por ejemplo una Voodoo) como tarjeta gráfica única, ya que el sistema no
funcionará por la ausencia de un dispositivo de pantalla válido. La Voodoo debe ir acompañando a una tarjeta
gráfica y no sustituyéndola.
Posibles problemas: Si no vemos nada por pantalla, en principio, debe cabernos la duda de si el problema radica
en la tarjeta gráfica o en el propio monitor. Comprobaremos, si ello es posible, que el monitor funciona. A
continuación, como en el caso de todas las tarjetas conectadas a slots, debemos verificar que esté correctamente
alojada en la ranura y bien sujeta. En el caso de tarjetas AGP, ciertas placas necesitan de la instalación de un
driver para poder ser reconocidas (los fabricantes son así)
¿Y qué hay dentro de esta caja?
30
Vamos a conformarnos, de momento, con el concepto de funcionamiento de la CPU que vimos al principio.
Ahora ampliaremos conocimientos sobre sus principales elementos:
La MEMORIA RAM (Ramdom Access Memory = memoria de acceso aleatorio) cumple la función de
almacenar la información que procesa el microprocesador (también llamado micro). Tiene, por tanto, la
capacidad de grabar y leer información. Y todo esto a gran velocidad, inferior a veces a 10 ns ¡10 millonésimas
de segundo!. La memoria tiene el aspecto físico de un circuito rectangular delgado con unos conectores en uno
de sus lados largos. Precisamente en el número de esos conectores está la diferenciación descriptiva de los tipos
de memoria: 30 contactos, 72 contactos (llamados SIMM) y 168 contactos (DIMM); otras como la tipo SIPP son
muy antiguas. Los módulos DIMM son ahora los más frecuentes y los podemos encontrar en capacidad de 32
Mb, 64 Mb, 128 Mb y 256 Mb.
Las características propias relacionadas con diversas tecnologías de perfeccionamiento como la memoria EDO,
con/sin polaridad, o a 100Mhz, deben tenerse muy en cuenta para asegurarnos que funcionará con el resto de
nuestra configuración de hardware.
Posibles problemas: Casi en todos los casos los problemas son debidos a incompatibilidades. Debemos recordar
asimismo que no deben mezclarse distintos tipos de memoria entre sí, aún cuando posean los mismo contactos
(por ejemplo memoria EDO y noEDO). Los bancos de memoria deben rellenarse de acuerdo a los manuales de la
placa.
MEMORIA CACHE. Aunque no la he mencionado anteriormente, lo haré aquí por su importancia y
actualidad. La memoria caché tiene, en realidad, funciones parecidas a la RAM. Sin embargo la caché es una
memoria mucho más rápida aún que aquella. Por tanto, su misión queda reservada a interponerse entre la
memoria RAM y el micro, con el fin de guardar los datos a los cuales se accede más a menudo, acelerando el
proceso general. El inconveniente de la memoria caché es su alto precio, por lo que pocos PCs puede permitirse
el lujo de poseer más de 512 Kb de ella.
Posibles problemas: Incompatibilidad con la placa.
MICROPROCESADOR. Sin duda alguna el aspecto más definidor y valioso del PC. De su velocidad y
capacidad de cálculo dependerá que podamos ejecutar ciertas aplicaciones exigentes o no. Desde el nacimiento
de la primera generación de micros para PC, el 8086, se ha ido en continuo avance y con él el resto del hardware
y software. Veamos sus características:
Modelos: Aunque me refiero a los micros Intel por ser éstos los más extendidos, no se debe desestimar la calidad
de sus competidores a los cuales, sobre todo en los últimos meses, hay que tener muy en cuenta. En los de Intel
los modelos son de más antiguo a más moderno: 8086, 8088, 286, 386, 486, 586 (Pentium), Pentium Pro,
Pentium MMX, Pentium II, Pentium III. Otras características como la diferencia entre los DX/SX o los actuales
Pentium II Celeron no son más que versiones más baratas del mismo procesador, normalmente debido a la
ausencia o disminución de cantidad o calidad de algún componente (como por ejemplo en el caso del Celeron, la
ausencia de la caché de segundo grado, incorporada habitualmente en el propio micro). Otros fabricantes, como
AMD o Cyrix, fabrican micros de gran calidad y hasta un 50% más baratos.
Velocidad de reloj: El reloj es un generador de impulsos el cual coordina los trabajos realizados por el micro. A
mayor velocidad de este reloj, mayor velocidad de ejecución de tareas. Esta velocidad se mide en Mhz
(Megahertzios), siendo un hertzio un ciclo de procesador en un segundo. Si su micro va a 300 Mhz, es capaz de
realizar ¡300 millones de trabajos básicos por segundo! A mayor velocidad, mejor. Aunque no merece la pena
pagar mucho por un aumento de velocidad de unos cuantos Mhz. Sin embargo, en realidad, la diferencias de
precio entre micros con sólo 50 Mhz de diferencia (algo normalmente apenas perceptible) puede llegar al 100%,
es decir el doble.
Posibles problemas: Cuando nos vemos ante la necesidad de cambiar el procesador, debemos mostrar especial
atención a los manuales de la placa. En ella se nos indicará (a veces no de forma tan clara como nos gustaría) los
cambios en la configuración ha realizar dependiendo del micro a instalar. Dicha configuración se lleva a cabo
mediante puenteo a través de jumpers. Un error en la configuración puede conllevar malfuncionamiento e
incluso llevar a un deterioro irreversible de éste. Dejemos esta tarea para profesionales. Si se usa Overclooking
y se detecta inestabilidad en el sistema se debe cambiar lo antes posible a la configuración correcta.
31
PLACA BASE. Este componente alberga e intercomunica entre sí a todos los elementos que componen el PC.
De apariencia de un circuito impreso cuadrado o rectangular, es ésta pieza la que nos dará el techo tanto de
nuestra configuración actual, como de una futurible. ¿Y por qué es esto? Porque la placa que elijamos debe ser
compatible con nuestro micro, nuestra memoria, y con todos los componentes y periféricos que vayan
conectados a ella. Es decir, que si pensamos adquirir un Pentium III, debemos elegir una placa que nos permita
conectar dicho micro, y que posiblemente será incompatible con un AMD K6-2. El comprar una placa preparada
para albergar procesadores superiores o más modernos del que tenemos en la actualidad nos permitirá la opción
de decidir ampliaciones en un futuro por el único precio del procesador. Pero, para ver esto mejor pasemos a las
características principales:
Zócalo de micro: Como hemos visto en el párrafo anterior, esta es una de las características principales a tener
en cuenta. Tanto si ya tenemos un micro que pensamos seguir utilizando como si queremos adquirir otro junto
con la placa, ambos deben ser compatibles. Esto conlleva no sólo poseer la capacidad de albergar dicho tipo de
micro sino también estar seguros de que soporta la velocidad (¿recuerdas los Mhz?) que posee. Como habrás
imaginado esto sucede porque no todos los micros son iguales ni van conectados de igual modo a la placa base.
Solo a modo de información veremos los diferentes zócalos existentes para los micros más habituales:
ZIF Socket 3 ...........................486
ZIF Socket 5 ................... Pentium
ZIF Socket 7 ..........Pentium MMX
ZIF Socket 9.............. Pentium Pro
ZIF Socket II (Slot 1)... Pentium II
* Socket = enchufe hembra, en inglés
Instalación o sustitución de un micro: Como hay distintos micros, y también distintas velocidades en cada tipo
de ellos, debemos indicarle a la placa qué tipo exacto le estamos instalando. No quiero entrar en detalles porque
sino esto dejaría de ser un curso básico de hardware. Pero si dejaré reseñado brevemente que esto se realiza
mediante el puenteo o no por medio de jumpers. Los contactos exactos que tenemos que puentear o dejar vacíos
son los especificados en los manuales de la placa para cada tipo de micro.
ChipSet: Se trata del juego de circuitos integrados que trabajan conjuntamente para controlar los buses y las
actividades básicas de la placa. La denominación de este chipset lo encontraremos como TX, FX, VX, BX y
otras por el estilo. Cada uno con características propias que marcan su capacidad, rendimiento, etc.
Número de Slots ISA y PCI. Los Slots (Slot = Ranura en inglés) son unos zócalos en forma de ranura larga y
estrecha que tienen como objetivo albergar las tarjetas de expansión. Vimos que los periféricos eran aquellos
dispositivos que no estaban albergados dentro de la caja, conectados directamente a la placa. Bien, los
dispositivos conectados directamente a la placa lo hacen mediante los slots. También tenemos distintos tipos de
slots, sobre todo porque esta tecnología ha ido y sigue evolucionando con el fin de obtener velocidades y
características cada vez mayores y más especializadas. Así tenemos los de tipo ISA (Industry Standard
Architecture = Ranura con arquitectura estándar), EISA, Bus local (VESA y PCI) y AGP. En la actualidad, lo
frecuente es encontrar placas con ranuras de tipo ISA, para dispositivos lentos (tarjetas de sonido, de red, etc);
PCI, de mayores prestaciones y con la capacidad del "Plug and Play" (Enchufar y listo, es decir autoreconocibles
por la placa) aquí irían conectados el resto de los dispositivos más frecuentes (los nuevos módems y tarjetas de
sonido, tarjetas de TV, aceleradoras gráficas, etc); y por último el Slot AGP, una nueva tecnología sólo para
tarjetas gráficas. Da mayor rendimiento que otras conectadas a PCI y tiene la capacidad, en software preparado
para ello, de aprovechar memoria RAM como memoria gráfica. Evidentemente cuantos más slots del tipo que
sea tengamos mejor, pero sobre todo PCI que son los más utilizados. Si a base de conectar tarjetas nos quedamos
sin más de ellos libres, nuestro PC será ya difícilmente ampliable. Tener esto en cuenta es especialmente
adecuado cuando debemos adquirir una placa nueva y tenemos pensado tener muchas tarjetas conectadas a ella.
Una buena idea entonces sería contar exactamente los slots que necesitamos y buscar una placa que se adecue a
nuestras necesidades. Lo normal es 3-4 ranuras PCI y 2 ISA, una de ellas compartida (es decir, que está junto a
una PCI y que si conectamos un dispositivo en una de ellas, la otra queda anulada para su uso)
32
Memoria caché: Algunas placas incluyen una cantidad de memoria caché externa. Cuánta es ésta y si es
ampliable son factores a tener en cuenta.
Puertos: El número de puertos serie, paralelo y si la placa posee o no los de tipo USB es también algo a tener en
cuenta. En una placa nueva, la presencia de uno o dos puertos USB debería ser imprescindible, habida cuenta de
la gran aceptación que tendrán esos dispositivos en un futuro no muy lejano.
Controladora: Todas las placas modernas llevan ya incorporada (hasta los 386 ésta iba como dispositivo
conectado a un Slot) la controladora para discos duros y CD-ROMs. Es decir, los conectores necesarios para unir
mediante un cable IDE (cable ancho, con una marca roja o de color en un extremo longitudinal) la placa y los
discos duros, CD-ROMs. Igualmente se puede decir de la controladora de disqueteras, la cual lleva un cable
diferente mas estrecho. Hay placas que incorporan de forma integrada también controladora SCSI o UltraWide
SCSI. Podría ser una opción útil para los usuarios de estos dispositivos.
Tarjeta de sonido y/o gráfica integrada: También nos encontraremos en ocasiones con la opción de adquirir una
placa con tarjeta de sonido 16 bits, tarjeta gráfica o las dos cosas integradas en la propia placa. Esto por un lado
nos da la ventaja de ahorrarnos slots, que así podremos utilizar para otros dispositivos. Pero tiene el
inconveniente de que normalmente el rendimiento de ambas cosas no está a la altura de las circunstancias.
ROM BIOS: La BIOS, aunque no es un componente que marque la capacidad, calidad o compatibilidad de la
placa, es un componente que creo merece la pena mencionar aquí. Incluso proponiéndome que este sea un curso
muy básico, no quiero pasar por alto por la menos dar a conocer la existencia de componentes claves como este.
La BIOS (Basic Imput Output System = Sistema Básico de Entrada Salida) es un chip que contiene memoria de
tipo PROM (Memoria de sólo lectura programable). Como vamos viendo, el PC es una máquina
multiconfigurable. Puede aceptar múltiples tipos de dispositivos y además debe estar preparado, dentro de lo
posible, para otros que salgan en el futuro. Siendo esto así, la placa no puede venir de fábrica configurada para
una única configuración de hardware sino que debe poder adaptarse al más amplio abanico posible. Y
efectivamente así es. El ordenador al arrancar configura los dispositivos Plug and Play, comprueba la existencia
de tarjeta gráfica, discos duros, etc e igualmente detecta posibles errores. La BIOS guarda esta información así
como el propio programa de diagnóstico que ejecuta. De este modo nuestro PC tendrá mucho ganado en
próximos arranques; ya sabrá que es lo que hay instalado y se limitará a comprobar si hay errores. La BIOS tiene
una cara que puede ser manipulada por el usuario, este es el setup o programa de configuración. Se accede a él
de diferentes formas dependiendo de la marca o versión de esta, pero normalmente hay que utilizar una
pulsación de tecla o configuración de ellas en el arranque. Dicha combinación es mostrada durante breves
segundos nada más arrancar nuestro PC. A través de este menú de configuración podemos acceder a opciones
relacionadas con la fecha y hora del sistema, detección de discos duros, activación/ desactivación de puertos, etc.
No es recomendable tocar nada si no se está seguro de lo que se hace y esta tarea debería ser llevada a cabo sólo
por profesionales o usuarios expertos. Una mala configuración de la BIOS puede conllevar que el sistema no
arranque o lo haga inapropiadamente. No obstante, si decides investigar presta especial atención a la opción
siempre presente que dice: "Don´t Save and Exit" (=No salvar los cambios y Salir ;-) )
La BIOS actuales son actualizables, es lo que se llama Flash Bios. Gracias a ello, el fabricante nos dará opciones
de soporte a hardware nuevo que de otro modo no podríamos usar. Si decidimos actualizar la versión de la BIOS
debemos asegurarnos de poseer una para nuestra marca y modelo exacto de placa. Necesitaremos también un
programa especial que es el que nos permitirá dicha actualización, dicho programa nos lo proporcionará el
fabricante. Es altamente recomendable guardar una copia de la versión actual antes de intentar instalar la nueva.
De ese modo siempre podremos volver a donde estábamos en caso de no completarse la actualización. Si no
tenemos en cuenta estos consejos, nuestra BIOS podría quedar inservible y necesitaría servicio técnico
profesional.
Posibles problemas: Incompatibilidades con los demás dispositivos presentes. Mala configuración de los
jumpers (revisar el manual). Si nuestro PC no arranca y cada vez que entramos en el Setup BIOS debemos
volver a introducirle la hora, configurarle los disco duros, etc. Lo más seguro es que nos hayamos quedado sin
pila. La información contenida en la PROM de la BIOS es alimentada, cuando el equipo se encuentra apagado,
por una pila recargable que suministra la tensión necesaria. Dicha pila puede ser extraíble de tipo botón o estar
soldada a la placa. Si esta pila falla, la información contenida se pierde y con ella toda la configuración
determinada para nuestro hardware con lo que tenemos que volver a configurarlo a cada arranque pues con la
ausencia de tensión se vuelve a perder los datos. La única solución si verificamos que es así el caso es cambiar la
pila.
33
3.- EL ORDENADOR Y SUS COMPONENTES HARDWARE UTILIZADOS EN TECNOLOGÍA.
EL ORDENADOR Y SUS COMPONENTES
1.- INTRODUCCIÓN.
La Informática es la parte de la Tecnología que estudia el mundo de los ordenadores. Hoy en día a todo este
campo de la Tecnología se le llama también “Nuevas Tecnologías de la Información” debido a que la función
principal de un ordenador es procesar la información que recibe y devolverla al usuario, según las instrucciones
que le dicte un programa.
Veamos el ejemplo de una grabación de sonido con el ordenador: Mediante un micrófono introducimos el
sonido, el ordenador procesa la señal, la almacena y según nuestras instrucciones la puede modificar. Una vez
procesado el sonido, el ordenador lo transmite al exterior procesado, mediante los altavoces.
Describe el proceso de crear un texto con el ordenador. Responde a las preguntas y completa el esquema.
¿Cómo se introduce la información?
¿Cómo la procesamos?
¿Cómo nos devuelve el ordenador la información procesada?
¿Qué es información? Un texto, una música, un vídeo, uno valores numéricos, son ejemplos de
Información, un ordenador los recibe, los procesa y devuelve esta información procesada al usuario.
En este tema veremos los componentes principales de un ordenador y aprenderemos la función que tienen.
Distinción entre Software y Hardware.
Se llama Hardware o parte física al conjunto de elementos físicos del ordenador: monitor, teclado, ratón, etc.
Son todos los componentes que podemos tocar.
Llamamos Software o parte lógica a los programas, y datos mediante los cuales funciona el ordenador. Son las
instrucciones que le indican al ordenador cómo funcionar, por ejemplo un video-juego, un programa para ver
fotos, etc. Para que funcione un ordenador son necesarias las dos partes, software y hardware, así
podemos definir un ordenador como: Una máquina electrónica que puede desarrollar múltiples funciones
dependiendo de los programas utilizados.
El lenguaje de los ordenadores.
Cuando nosotros introducimos en un ordenador un texto por el teclado vemos que en la pantalla aparecen las
letras que vamos pulsando, si introducimos mediante una cámara una fotografía veremos una imagen.
Igualmente podemos hablar de música, vídeo o cualquier otro tipo de datos.
¿Cómo se almacena esta información dentro de los circuitos electrónicos del ordenador? Recuerda que un
ordenador codifica la información en forma de 1 y 0, los circuitos electrónicos sólo pueden procesar estos dos
34
valores. De esta manera todos los datos que podamos introducir en un ordenador, sonido, imagen, etc. Se
convierten en su interior en datos digitales unos y ceros. Por esta razón a lo relacionado con la informática se le
llama a veces “mundo digital”. Un dígito es un dato que puede tener el valor 0 ó 1.
Se llama BIT a la unidad mínima de información, es un dígito que puede tomar 2 únicos valores 0 ó 1.
Con un bit se puede almacenar muy poca información, por eso se emplea otras agrupaciones para medir la
cantidad de información en los ordenadores,
Unidad
Equivale a: Ejemplo de uso.
1 byte
1 Kilobyte (KB)
1 Megabyte (Mb)
1 Gigabyte (Gb)
2. LOS PERIFÉRICOS DE UN ORDENADOR
Hemos visto que un ordenador es un dispositivo que recibe información del exterior la procesa y la transmite al
exterior. Para realizar estas funciones se utilizan los periféricos que pueden ser de entrada cuando introducen
información al ordenador de salida cuando reciben la información del ordenador y de entrada/salida si realizan
las dos funciones.
Los periféricos se conectan al ordenador a través de unos conectores llamados puertos. En otro punto se
explican con más detenimiento, ahora recuerda que existen los siguientes puertos: PS/2, USB, Serie y Paralelo.
35
PERIFÉRICOS DE ENTRADA
 El teclado: Permite introducir texto y número. Cuando pulsamos una tecla, el ordenador recibe el
código de la tecla indicada. Se
conecta al puerto PS/2.
¿Cómo está formado el código que
recibe el ordenador del teclado?
 El ratón:
mediante
el
ratón
controlamos el “puntero” (flechita que
aparece en la pantalla), disponemos
de dos o tres pulsadores y una ruleta
para
dar
distintas
órdenes
al
ordenador a través de este periférico
de entrada. Se conecta al puerto PS/2 ó a un puerto USB.
 El Scanner: permite introducir la información que tenemos en papel (texto o imagen) al ordenador. Se
conecta a un puerto USB.
 Micrófono: Se conecta a la “tarjeta de sonido”, permite “digitalizar” un sonido.
 Cámara de fotos o vídeo. Estos dos productos permiten introducir al ordenador imágenes fijas o en
movimiento (vídeo). Se conectan a un ordenador al puerto USB o se introducen los datos a través de
algún tipo de tarjeta de memoria.
 Otros dispositivos. Menos utilizados existen otros dispositivos como: mandos para videojuegos
Joysticks, gamepads o volantes para videojuegos, mandos a distancia para control de TV.
Fuera del ámbito doméstico existen tarjetas para capturar datos científicos. Cualquier
magnitud física se puede “digitalizar” e introducir a un ordenador temperatura, peso, fuerza, velocidad
etc. Estos periféricos son utilizados en las industrias y en los laboratorios.
PERIFÉRICOS DE SALIDA
36
 Monitor. Nos permite ver texto e imágenes, hoy en día utilizamos los de tubo de rayos catódicos
CRT, y los de pantalla plana cuya tecnología se designa por las siglas TFT. El tamaño de ambos tipos se
mide en pulgadas (1 pulgada = 2,4 mm) y cuando nos dan una medida nos indican la medida de la
diagonal. Las medidas más habituales son 15” y 17”. El monitor se conecta a un puerto llamado VGA.
Los nuevos monitores planos se conectan a un conector DVI.

Impresora. Permite imprimir en papel la información del ordenador, texto, gráficos e imágenes. Se
conectan al puerto paralelo o USB. Hoy en día hay de dos tipos:
o
Impresoras de inyección de tinta. Tienen varios cartuchos con tinta de varios colores, son las más
económicas aunque la página impresa resulta algo cara.
o
Impresoras láser, el sistema de impresión es parecido al de las fotocopiadoras. Las hay de blanco y
negro y de color, son más caras que las anteriores pero la página impresa es más barata.
Resolución de una impresora.
La resolución se mide en dpi o ppp (dots per inch –en inglés- o puntos por pulgada –en español-). Este número
nos da la cantidad de puntos que puede escribir la máquina en una pulgada. A veces se detalla el numero de ppp
que imprime en horizontal y el que imprime en vertical (así en las características de la impresora puede poner
1440x720 ppp o 1440x1440 ppp –en general no se suele detallar tanto y se habla de 1440 ppp en vez de
1440x1440 ppp). Lógicamente a más ppp más calidad de imagen. La otra característica importante de las
impresoras es la velocidad de impresión, se mide en páginas por minuto. Por supuesto, a más velocidad mejor
impresora.
Una impresora con resolución de 1440 ppp podría imprimir 1440 puntos en la medida de una pulgada (24 mm.).
¿Serías capaz de escribir con esa resolución?
1 pulgada
 Altavoces: se conectan a la tarjeta de sonido y nos permiten escuchar el sonido que emite el
ordenador.
 Otros periféricos. En el mundo de la industria gran cantidad de máquinas son controladas por
ordenador, todas ellas pueden ser consideradas como periféricos de salida y que reciben las órdenes de un
ordenador, un ejemplo son las máquinas CNC de control numérico utilizadas para fabricar piezas.
PERIFÉRICOS DE ENTRADA/SALIDA
Son dispositivos que transmiten información al ordenador y la reciben, como ejemplo un MODEM, es el
dispositivo que permite conectar un ordenador a Internet mediante una línea telefónica. Dependiendo de que
estemos recibiendo o emitiendo datos el dispositivo se comporta como entrada o salida.
3. LOS COMPONENTES DE LA TORRE
Habitualmente al ordenador se le denomina “torre” o “caja” o “CPU”, los componentes que contiene constituyen
el ordenador que para poder utilizarlo hemos de conectarlo con los periféricos.
37
Dentro de la “torre” se alojan los siguientes componentes:
 Fuente de alimentación.
 Placa base.
 Sistemas de almacenamiento.
Veamos cada uno de ellos con más profundidad.
3.1. La fuente de alimentación.
Convierte el voltaje alterno de la red eléctrica, en pequeños voltajes continuos para los circuitos electrónicos. Por
detrás de la torre podemos ver su ventilador de refrigeración, los conectores para los enchufes y en algunas
fuentes un interruptor.
3.2 La placa base.
Es el componente principal del ordenador. A la placa base se conectan todos los demás elementos que forman
parte de un equipo informático. Incluye los siguientes componentes:
Chipset: Normalmente son dos circuitos integrados cuya función es controlar el flujo de información entre los
componentes del equipo: memoria, microprocesador, puertos.
BIOS: Es el chip que contiene las instrucciones básicas del ordenador. No se borra cuando se apaga el
ordenador, se puede acceder a sus datos a través del SETUP cuando el ordenador está arrancando. Almacena
entre otras cosas la fecha, secuencia de arranque.
El microprocesador. Se le llama también CPU, es el chip principal del ordenador, su función es controlar y
coordinar el funcionamiento del ordenador, también realiza la operaciones matemáticas.
Debido a la gran cantidad de operaciones que realizan hoy en día los micros deben de llevar instalado un
ventilador para que no alcance temperaturas muy elevadas.
Los ordenadores personales que utilizamos hoy en día suelen montar los siguientes microprocesadores:
Microprocesador
Fabricante
Velocidad
Medida de la velocidad de un microprocesador: La velocidad a la que funciona hoy en día un microprocesador
se mide en Gigahertzios (Gh). 1 Gigahertzio es un múltiplo del HERTZIO que es un impulso por segundo. Así
un microprocesador que funcione a 2 Ghz está ejecutando 2.000.000.000 de impulsos por segundo, cada
operación sencilla del micro requiere 10 ciclos por lo que dicho micro realizaría 200.000.000 de operaciones por
segundo. Cuanta más velocidad tiene un microprocesador suele ser más rápido el funcionamiento del ordenador.
La memoria principal.
38
Cuando apagamos un ordenador los datos y programas quedan almacenados en el disco duro (posteriormente se
explicará). Cuando lo encendemos el ordenador debe de cargar estos datos o programas en una memoria más
rápida, que le indique al microprocesador las instrucciones a seguir. A esta memoria se le llama RAM, es una
memoria muy rápida pero que sólo almacena los datos cuando el ordenador está encendido. En el momento de
apagarse se pierden todos los datos si no se han guardado en el disco duro. Actualmente los ordenador suelen
tener una memoria RAM de 256 MB a 1 GB.
Esta memoria RAM son unos chip insertados en unas placas que se conectan a la placa base.
Memoria ROM, es una memoria de sólo lectura, no se puede escribir, es un chip que le indica al ordenador qué
hacer cuando arranca y las funciones más básicas.
Batería, Los ordenadores tienen una batería o pila para que siga funcionando el reloj al apagarlo.
Los Puertos: Son conectores a los que se conectan distintos dispositivos de almacenamiento, de entrada o de
salida. Dependiendo del tipo de puerto se transmite la información a más o menos velocidad. Los más comunes
son:
 Puertos PS/2 para conexión del teclado y del ratón.
 Puerto paralelo para conexión de la impresora.
 Puertos serie, actualmente en desuso
 Puertos USB (Universal Serial Bus) muy utilizado para cualquier dispositivo.
 Puertos de sonido y juegos, entre ellos la entrada del micrófono, la salida de altavoces y el puerto para
Joystick.
Slots o ranuras de expansión.
Permiten conectar a la placa base distintas tarjetas que añaden funciones al ordenador, actualmente se utilizan
principalmente tres tipos de ranuras.
o
Ranura AGP, sólo hay una en la placa base y se utiliza para conectar la tarjeta de vídeo.
o
Ranuras PCI, se utilizan para conectar todo tipo de tarjetas, de sonido, sintonizadoras de
TV, tarjetas de red, etc.
o
Ranuras PCI Express, son las últimas que han sacado, son una mejora de las PCI y sólo en
los últimos modelos de ordenadores las podemos encontrar.
39
o
Ranuras ISA, si vemos un ordenador antiguo nos encontramos con este tipo de ranuras
(más grandes que las anteriores) que hoy en día ya no se utilizan.
Conectores para los dispositivos de almacenamiento.
Encontramos en la placa base un conector para conectar la disquetera. Para conectar el disco duro y las unidades
ópticas (CD-ROM y DVD-ROM), existen dos conectores llamados IDE-0 e IDE-1. En los ordenadores más
recientes hay un conector especial llamado S-ATA para los discos duros.
Sitúa sobre la gráfica de la figura (representa una placa base) los componentes de la placa base: zócalo
microprocesador, BIOS, Chipset, batería, memoria RAM, slots de expansión, conectores IDE, conector
disquetera y puertos.
Realiza un esquema de los periféricos del ordenador:
Realiza un esquema con los componentes de la placa base.
40
Tarjetas de expansión
Se conectan a los SLOTS o “ranuras de expansión” sirven para aumentar las funciones del ordenador o
mejorar su funcionamiento. Algunos ejemplos son:
Tarjeta gráfica
Se conecta a la ranura AGP, la función principal es gestionar la imagen que vemos por el monitor, el monitor se
conecta a la tarjeta.
Es uno de los dispositivos más importantes si el ordenador va a ser destinado al uso de programas gráficos o de
videojuegos. Tiene un microprocesador que calcula las imágenes en movimiento, a veces, tan potente que
necesita un ventilador y una memora RAM de similares características a la de la placa principal.
Además de la salida VGA a la que se conecta el monitor suelen tener una salida
s-Vídeo para ver en un
televisor normal la imagen del ordenador.
Tarjeta de sonido
Se conecta a una ranura PCI. Es un dispositivo de entrada/salida puesto que codifica digitalmente el
sonido que introducimos por el micrófono, y convierte en sonido el sonido que genera el ordenador.
Tiene diferentes conexiones para micrófono, entrada de línea (conexión de un cassette.), salida de altavoces y
puerto para joystick (videojuegos).
Algunas tarjetas son especiales para sistema de altavoces 5.1 (los usados en los home cinemas).
Sintonizadora TV
Se utilizan para ver la TV en un ordenador. Disponen de varias entradas de vídeo y antena. Se conecta a las
ranuras PCI.
Otras tarjetas de expansión
Siendo los tres principales los anteriores existen otros muchos tipos de tarjetas que se conectan a las ranuras PCI.

Capturadora de vídeo, para codificar vídeo desde una videocámara.

Modem, para conectar el ordenador a Internet a través de una línea telefónica normal.

Tarjeta de red, para conectar varios ordenadores entre sí.

Router, para conectar el ordenador a Internet a través de ADSL.
3.3. Sistemas de almacenamiento
Cuando guardamos un archivo en el ordenador. ¿Dónde se almacena? ¿Cómo podemos transferir la información
a otro ordenador? Para resolver este problema se utilizan los dispositivos de almacenamiento.
Por la forma de almacenar la información los hay de dos tipos, dispositivos magnéticos y dispositivos
ópticos.
41
Dispositivos magnéticos.
Disco duro. Se almacena casi toda la información con la que funciona el ordenador, programas, datos, etc.
Está formado por varios discos apilados sobre los que se mueve una pequeña cabeza lectora magnética que graba
y lee la información.
Se conecta a la placa base a través del conector IDE.
Su principal característica es la capacidad de almacenamiento que actualmente se mide en Gb. Pueden almacenar
unos 120 Gb.
Disquetera de 3,5”. Formado por un disco flexible plástico recubierto de material ferromagnético. Tienen muy
poca capacidad 1,44 Mb.
Dispositivos ópticos
Son los dispositivos que permiten leer y grabar los CD’s y los DVD’s. Actualmente los más utilizados
son los regrabadores de DVD que permiten leer y escribir tantos CD’s como DVD’s. Pero los dispositivos
existentes son:
Sólo discos CD (700 Mb) Discos DVD (4,7 Gb) y CD’s
Sólo leer
CD-ROM
DVD-ROM Regrabadora
Leer y grabar CD-RW
DVD-RW Regrabadora
Ambos tipos de dispositivos se conectan al conector IDE de la placa base. Su velocidad se designa con
un número seguido del signo x. Si un lector nos indica 52x quiere decir que lee los datos 52 veces más rápido de
la velocidad de lectura normal de un CD.
Otros dispositivos de almacenamiento
Se utilizan actualmente para trasladar la información entre ordenadores de una forma rápida, ya que los
dispositivos son algo lentos a la hora de grabar datos.
Memorias flash. Son las tarjetas que se utilizan en las cámaras de fotos, es necesario un lector de tarjetas
conectado al ordenador.
Memorias portátiles. Memorias portátiles que se conectan al puerto USB, se utilizan mucho como
reproductores de música en formato MP3.
42
LOS PROGRAMAS DEL ORDENADOR
El programa principal que tiene instalado un ordenador es el Sistema Operativo. Cuando arrancamos un
ordenador se ejecuta el Sistema Operativo que tenga instalado desde este programa principal se pueden realizar
múltiples funciones:

Ejecutar el resto de programas.

Configurar distintas opciones del ordenador: calidad de pantalla, componentes instalados, etc.

Controlar las unidades de almacenamiento, crear carpetas, copiar archivos, etc.
El Sistema Operativo más usado actualmente es Windows de la empresa Microsoft. Existen varias versiones: Windows
98, Windows Me, Windows XP (la más actual). Existen otros sistemas operativos como Linux o Unix.
El sistema operativo Windows.
Veamos los conceptos básicos:
El Escritorio: se llama así a la pantalla inicial de
Windows. En ella podemos ver: programas y
carpetas.
Pinchando dos veces seguidas con el botón
izquierdo del ratón, abrimos un programa o una
carpeta.
La barra de herramientas: Contiene el botón
de inicio para acceder a programas y apagar el
ordenador. Accesos directos para arrancar
programas. Programas en ejecución
son
programas que están funcionando pero no tienen
imagen
en
el
escritorio,
porque
están
minimizados o no se necesita.
Pulsando al botón de inicio aparecen un menú
desde
el que
programas.
podemos
arrancar
también
Si pulsamos dos veces seguidas en el icono MiPC
se abre una ventana donde podemos ver los sistemas de
almacenamiento del ordenador:
43
Las carpetas sirven para almacenar los archivos, un archivo es la forma en la que el ordenador almacena
una información, los hay de muchos tipos dependiendo del tipo de información que almacenen: archivos de texto, de
imagen (fotos), de música, etc.
Veamos cómo crear una carpeta nueva el un disco duro D:
Si pulsamos sobre MiPC, accedemos a una
ventana
donde
aparecen
los
sistemas
de
almacenamiento designados con estas letras:
Disquetera a:
Disco duro C:
Disco duro D:
CD-ROM E: Puede haber más o menos discos
duros el CD-Rom tendrá la última letra.
Pulsamos dos veces para abrir el disco D:
Se abre una ventana nueva donde aparecen las
carpetas almacenadas en el disco duro.
Fíjate en el título de la ventana para saber en qué
dispositivo estás.
Con el cursor del ratón sobre la ventana,
pulsamos el botón derecho del ratón, aparece un
menú pinchamos Nuevo y sobre el nuevo menú
Carpeta.
Aparece una nueva carpeta en la ventana, sólo
nos falta ponerle el nombre que queramos.
Mediante el teclado le asignaremos el nombre.
44
Cuando en un programa tengas que guardar un archivo le puedes indicar que lo guarde en tu nueva carpeta.
EJERCICIOS 2
1.- Indica dónde conectarías cada uno de estos componentes
a.- Tarjeta gráfica.
Ranura PCI
b.- Scanner.
Puerto VGA
c.- Teclado
Puerto paralelo
d.- Tarjeta de sonido.
Conector IDE
e.- Disco duro.
Puerto USB
f.- Monitor.
Ranura AGP
g.- Impresora
Puerto PS/2
2.- Indica qué se indican con estas siglas.
TFT
PCI
CRT
USB
PPP
PS/2
AGP
DVD
CD-RW
IDE
3.- Identificar los componentes a partir de su definición.
Placa base, tarjeta gráfica, disco duro, fuente de alimentación, memoria RAM, Chipset, Regrabadora,
microprocesador, placa base.
1.
Conjunto de chips que gestiona la actividad de los componentes de la placa base.
2.
Caja en la que se aloja la fuente de alimentación y el resto de componentes de un ordenador.
3.
Dispositivo que permite grabar discos compactos.
4.
Chip que dirige y coordina los componentes del equipo, además de realizar las operaciones
aritméticas.
5.
Componente que se atornilla a la carcasa y al que se conectan los componentes fundamentales de
un ordenador.
6.
Elemento que suministra la corriente eléctrica necesaria a los componentes de un ordenador.
7.
Elemento que almacena de manera temporal los datos que maneja el ordenador.
8.
Dispositivo que almacena
de manera permanente el software y los datos que utiliza un
ordenador.
9.
Conjunto de chips y conexiones que se conecta al monitor y a la placa base y que gestiona la
producción de imágenes en la máquina.
4.- Responde a las siguientes cuestiones:

¿Qué funciones realiza el sistema operativo?

¿Qué sistemas operativos conoces?
45
Sitúa sobre la figura los siguientes componentes de Windows
Escritorio, barra de tareas,
menú de inicio,
programas,
cursor
5.- La siguiente figura muestra la ventana de MiPC abierta. Ordena los pasos indicados para crear una nueva
carpeta en el disco D.
a. Seleccionar del menú Nuevo.
b. Seleccionar del menú Carpeta.
c. Dar el nombre a la nueva carpeta.
d. Pulsar botón Derecho del ratón.
e. Pulsar dos veces sobre el icono Disco d:
6.- Realiza un esquema con los distintos tipos de sistemas de almacenamiento que se utilizan en los ordenadores.
COMPONENTES DE LA PLACA BASE.
46
4.- UNIDADES DE ALMACENAMIENTO UTILIZADOS EN TECNOLOGÍA.
Unidades de almacenamiento
Índice - Contenido
• Generalidades
• Tecnologías: óptica y magnética
• Unidades de disco flexible
• Unidades de disco duro IDE e SCSI
• Otras unidades de almacenamiento
RESUMEN.
Este articulo es continuación de una anterior publicación y donde repasamos el estado de las tecnologías
de almacenamiento de datos de alta densidad, materiales usados, fabricación y I+D existentes a nivel mundial.
Cubre las varias tecnologías ópticas de almacenamiento de datos, dispositivos magnéticos (disco duro
magnético), así como las emergentes tecnologías alternativas de almacenamiento de datos. Las fuentes de
información usadas en el estudio incluyen la revisión de la literatura existente de estudios realizados sobre el
tema. El propósito de este estudio de almacenamiento de datos de alta densidad era investigar e informar del
estado actual de las tecnologías de almacenamiento de datos. En el artículo se presenta la base conceptual para
sistemas de almacenamiento de la información, magnético, óptico y magneto-óptico de los datos. Así el énfasis
del artículo estará en general en las tecnologías del disco y los discos ópticos y magnético-ópticos en particular.
Concluyendo los comentarios y un examen de tendencias para el futuro de la tecnología de almacenamiento
óptico son los asuntos del artículo.
1.1. UNIDADES de ALMACENAMIENTO
1.1.1. Generalidades
Las unidades de almacenamiento se entienden como aquellas que permiten almacenar de forma
permanente los datos y/o programas para ser utilizados en el momento adecuado y poder ser modificados,
vueltos a guardar y recuperados cuando se desee. Son por tanto dispositivos que guardan permanentemente la
información en ausencia de alimentación, siendo muchos de ellos capaces de ser transportables, es decir, poder
llevarse la información a otro equipo o guardarla como copia de seguridad.
Las unidades de almacenamiento son fundamentales en cualquier equipo microinformático, y de todas
las existentes, en la actualidad siempre habrá:
• Unidad de disco flexible o Floppy.
• Unidad de disco duro.
• Unidad lectora de CD-ROM/DVD.
La interfaz IDE (Integrated Device Equipament —dispositivos con controladores integrados—) para
disco duro y CDROM es la más utilizada en todos los equipos, disponiendo las placas base de dos conectores
para poder conectar hasta 4 unidades IDE.
47
La interfaz SCSI (Small Computer System lnterface —sistema interfaz para pequeño computador—)
(pronunciado como “escasi”), utilizada en los equipos más profesionales, está siendo ya bastante utilizada en los
equipos de consumo.
Sin embargo, existen en la actualidad muchos tipos de unidades de almacenamiento para cubrir un amplio
abanico de posibilidades de uso y que están pensadas para aplicaciones específicas, como son:
• LS-120 o super-disk.
• ZIP 100MB y 200MB.
• DITTO.
• JAZ.
• EZFlyer.
• SyJet.
• SparQ.
• Magneto-ópticas MO.
• Unidades de Back-up.
• CD grabables y regrabables.
• Etc.
48
1.1.2. Tecnologías: óptica y magnética
Para grabar datos en un soporte físico más o menos perdurable se usan casi en exclusiva estas dos
tecnologías. La magnética se basa en la histéresis magnética de algunos materiales y otros fenómenos magnéticos,
mientras que la óptica utiliza las propiedades del láser y su alta precisión para leer o escribir los datos.
La tecnología magnética consiste en la aplicación de campos magnéticos a ciertos materiales cuyas
partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan
tras dejar de aplicarse el campo magnético.
Dispositivos magnéticos existen infinidad; desde las casetes o las antiguas cintas de música hasta los modernos Zip y
Jaz, pasando por disqueteras, discos duros y otros similares. Todos se parecen en ser dispositivos grabadores a la vez
que lectores, en su precio relativamente bajo por MB (lo que se deriva de ser tecnologías muy experimentadas) y en
que son bastante delicados. Les afectan las altas y bajas temperaturas, la humedad, los golpes y sobre todo los
campos magnéticos.
La tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera aplicación
comercial masiva fue el CD de música, que data de comienzos de la década de 1.980. Los fundamentos técnicos que
se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros
en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del
polvo.
El sistema no experimenta variaciones importantes hasta la aparición del DVD, que tan sólo ha cambiado la
longitud de onda del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información
en el mismo espacio.
Figura 1.1.1
La principal característica de los dispositivos ópticos es su fiabilidad. No les afectan los campos
magnéticos, apenas les afectan la humedad ni el calor y pueden aguantar golpes importantes (siempre que su
superficie esté protegida). Sus problemas radican en la relativa dificultad que supone crear dispositivos grabadores a
un precio razonable, una velocidad no tan elevada como la de algunos dispositivos magnéticos y en que precisan un
cierto cuidado frente al polvo y en general cualquier imperfección en su superficie, por lo que es muy recomendable
que dispongan de funda protectora.
49
1.1.3 Estructura física y lógica
La estructura es la forma en que se guarda la información en el soporte y se puede dividir en dos partes:
estructura física y estructura lógica.
La estructura física es la forma en que está dividido el medio de almacenamiento, bien sea disco, cinta, etc.;
corresponde a los lugares donde se guardará la información y que están preparados para ello; se crea cuando se
construye en la fábrica.
La estructura lógica es la forma como está guardada la información en el soporte correspondiente. Está dividida en
varias zonas, y en el sistema operativo DOS o Windows 9x corresponden a la mostrada en la Figura 1.1.2.
Figura 1.1.2
Área reservada: También llamada sector de arranque o sector 0.
FAT (Tabla de localización de ficheros): es el lugar donde se indica la posición que ocupa cada uno de los espacios
mínimos que se utilizan para guardar la información.
Directorio raíz: se almacena aquí todos los nombres y otros datos de los archivos y directorios que hay en el
directorio raíz.
Área de ficheros: el resto del elemento se utiliza como espacio para almacenar los archivos de usuario. Suele ser del
orden del 98% del espacio total de almacenamiento, lo cual implica que las otras tres zonas ocupan muy poco
espacio.
1.1.4. Unidades de disco flexible
Las unidades de discos flexibles o disqueteras son aquellas que leen/escriben la información contenida en
unos discos que son transportables e independientes de la unidad.
50
½
Existen dos tipos diferentes de disqueteras: de 3 y de 5
1/4
, estando estas últimas prácticamente extinguidas.
Para cumplir todas sus funciones, las disqueteras están conectadas a un conector que está en la placa base (o a una
tarjeta controladora en los modelos más antiguos) mediante u cable de 34 hilos. En placa base (o en la tarjeta
controladora) está la controladora que efectúa la conexión entre el bus de datos del ordenador la disquetera
correspondiente.
El número y tipo de conectores indicará las unidades y el tipo que se pueden instalar, hasta un máximo de dos.
1.1.4.1. Capacidad de un disquete
Los datos se almacenan en círculos concéntricos llamados pistas, y cada una de estas pistas se divide en sectores de
512 bytes, según se muestra en la figura. El total de sectores de un disco flexible es:
Los sectores que se encuentra que en las pistas más cercanas al centro del disco son físicamente más
pequeños que los sectores del exterior, sin embargo almacenan la misma cantidad de información.
Dependiendo el tipo de disquete, tendrá un número u otro de pistas y sectores. En la tabla siguiente se
muestra un resumen de las características de los distintos tipos de disquetes
Tabla
1.1.1
1.1.4.2. Las características más importantes de las disqueteras

Sensibilidad Se denomina sensibilidad al ancho de pista que es capaz de leer la cabeza de lectura en una unidad
51
de discos flexibles

Alineación radial La cabeza de lectura/escritura ha de situarse lo más exactamente posible en el centro de la
pista.

Histéresis La histéresis mide la diferencia de posicionamiento de la cabeza en una misma unidad cuando se
accede a una determinada pista desde el interior o desde el exterior del disco. Las histéresis aceptables para
½
unidades de 3 de 1 mi (milipulgada)

Centrado de la sujeción Al introducir un disquete en una unidad, éste tiene que ser centrado de forma que el
centro físico del mismo coincida con el centro de giro. Esta operación tiene que ser realizada con toda precisión,
ya que un error de posicionamiento producirá una falta de alineación y por tanto sería imposible leer el disquete
correctamente

Tangencia Como en los discos los datos están situados en círculos, la cabeza debe adoptar una posición
tangencial a estos círculos. Las unidades de disquetes admiten desviaciones de la tangencia de la cabeza de
lectura/escritura del orden de 0,65 grados como máximo.

Velocidad de rotación Todas las unidades de discos flexibles tienen una velocidad de rotación de 300 r.p.m,
excepto las de 1,2 Mbytes que es de 360 r.p.m. La tolerancia de desviación de la velocidad de rotación suele ser
del 1%, aunque en las unidades actuales poseen un chip que regula la velocidad de forma que esta desviación es
mínima.
1.1.4.3. Estructura lógica de un disquete
Los sistemas operativos no entienden de sectores y estructuras físicas, trabajan con estructuras lógicas y
concretamente con clusters (unidad mínima de información que el DOS o Windows 9X puede usar para guardar
datos). Un cluster, no es más que un conjunto de varios sectores del disquete, dependiendo su tamaño de la unidad de
disco y varia entre 1 o 2 sectores contiguos para los disquetes y entre 4, 8 o 16 para los discos duros.
La estructura lógica se crea en el disquete durante el proceso de formateo y consiste principalmente en la
división del disquete en cuatro zonas:

Sector de arranque (boot sector): Se localiza siempre en el primer sector (sector 0) de todo disquete y ocupa
únicamente un sector (512 bytes).

Tabla de localización de ficheros (FAT): La FAT (File Allocation Table – Tabla de localización de ficheros), es
una tabla formada por elementos que se corresponden con cada uno de los clusters del disco. Cada elemento de
la FAT puede tener uno de los tres valores siguientes:

Una marca especial (el valor 0) para indicar que es un cluster libre. Esta marca se utiliza cuando los sectores de
ese cluster están libres y no almacenan ningún dato.

Una marca especial para indicar que es el último cluster de un fichero. Si aparece esta marca, entonces quiere
decir que los sectores de ese cluster almacenan la parte final del fichero.

Cualquier otro valor numérico se interpreta como el cluster siguiente. Es decir, si el elemento 140 de la FAT
tiene el valor 200, significa que detrás de los sectores del cluster 140, el contenido del fichero continúa en los
sectores correspondientes al cluster 200.
52
La FAT sirve para mantener la pista del almacenamiento de los ficheros en clusters no secuenciales. Si por
cualquier motivo se corrompe la FAT posiblemente perderá gran parte de sus datos, ya que no sabrá dónde continúa
un fichero y dónde termina. La FAT es tan importante que todos los discos tienen dos copias de la FAT para
recuperar los datos en caso de que se corrompa una de las copias. El programa ScanDisk examina la FAT por si
existe un error y lo corrige.
ƒ El directorio raíz:
Ocupa un número fijo de sectores y se sitúa detrás del último sector de la FAT. En el directorio raíz se almacena una
entrada de 32 bytes por cada elemento que posee el dicho directorio. Estos 32 bytes contienen algunos de los datos
que se muestran al ejecutar el comando DIR (nombre, extensión, tamaño, fecha y hora), así como el estado de los
atributos del elemento y el cluster de inicio de dicho elemento. Los 32 bytes de cada entrada almacenan la
siguiente información (10 de los bytes están reservados):

El nombre del elemento (8 bytes).

La extensión del elemento (3 bytes).

La fecha de creación o última modificación (2 bytes).

La hora de creación o última modificación (2 bytes).

El tamaño (0 si el elemento es un directorio o carpeta en Windows 9x) (4 bytes).

Los atributos del elemento (archivo, sólo lectura. oculto, sistema y directorio) (1 byte).

El cluster donde comienza el contenido del elemento (2 bytes). Si el elemento es un fichero el cluster señala el
primer sector del disco donde se almacena el contenido del fichero.
La zona del directorio raíz se crea siempre detrás del último sector de la FAT y antes del espacio reservado
para los datos de usuario. Como la zona del directorio raíz tiene un tamaño fijo, ha de tener un límite máximo de
entradas que puede almacenar. Este límite se obtiene dividiendo el número de bytes totales que ocupa la zona del
directorio raíz entre los 32 bytes que requiere cada entrada de fichero. En el caso de los disquetes el tamaño del
directorio raíz varía en función del tamaño del disquete según se muestra en la tabla 1.1.2.
Tabla 1.1.2

El área de datos del usuario: el resto del disco a partir de la zona del directorio raíz se reserva como
53
espacio de datos para almacenar los ficheros del usuario. El tamaño de esta área suele ocupar el 98% del
espacio total del disco.
1.1.5. Unidades de disco duro IDE
1.1.5.1. Constitución física
Los discos duros constituyen la unidad de almacenamiento principal del ordenador, donde se guardan
permanentemente una gran cantidad de datos y programas. Constituyen la memoria de almacenamiento masivo. La
estructura interna de un disco duro se muestra en la figura 1.1.7
1.1.5.2. Estructura física
Un disco duro está formado por una serie de discos o platos apilados unos sobre otros dentro de una carcasa
impermeable al aire y al polvo. El diámetro de los platos oscila entre 2 pulgadas (5 cm) y 5,25 pulgadas (13,3 cm).
Los más comunes son los platos de 3,5 pulgadas (8,9 cm).
Cada plato tiene dos caras. A cada cara le corresponde una cabeza de lectura/escritura, soportada por un
brazo. En la práctica cada brazo situado entre dos platos contiene dos cabezas de lectura/escritura.
La superficie de los platos se divide en pistas concéntricas numeradas desde la parte exterior empezando por
la pista número 0. Cuántas más pistas tenga un disco de una dimensión dada, más elevada será su densidad (TPI), y
mayor su capacidad.
Todas las cabezas de lectura/escritura se desplazan a la vez, por lo que es más rápido escribir en la misma
pista de varios platos que llenar los platos unos después de otros.
El conjunto de pistas del mismo número en los diferentes platos se denomina cilindro. Un disco duro posee,
por consiguiente, tantos cilindros como pistas hay en una cara de un plato.
Las pistas están divididas a su vez en sectores. El número de sectores por pista (cilindro) es variable desde
17 a más de 50. Estos sectores son de tamaño variable: los situados más cerca del centro son más pequeños que los
del exterior, aunque almacenan, sin embargo, la misma cantidad de datos: 512 bytes. La densidad de bits, es mayor
54
en los sectores internos que en los externos.
La cabeza de lectura/escritura flota sobre la superficie del disco, no está pues en contacto físico. Es el
desplazamiento de las capas de aire arrastradas por el movimiento de rotación de la superficie del disco el que
provoca, por un fenómeno aerodinámico, el despegue de las cabezas y su colocación a una distancia de unas 0,5
micras por encima de la superficie.
Las dos operaciones que realiza la cabeza de lectura escritura son: escritura de datos y lectura de datos.

Escritura de datos: los datos se escriben en la superficie del disco por medio de una corriente enviada al
electroimán que porta la cabeza de lectura/escritura. Esta corriente produce un campo magnético que modifica
las partículas magnéticas de la superficie del disco.

Lectura de datos: la lectura de datos se basa en el fenómeno inverso: una variación del campo magnético en las
proximidades de un electroimán provoca la aparición de una corriente eléctrica en el bobinado de éste.
Discos duros: baratos y más capacidad
Los dispositivos de almacenamiento de datos han aumentado de capacidad y han bajado de precio a un
ritmo frenético mucho más que los procesadores y los chips en general, hasta tal punto que la revolución informática
no se concebiría sin ellos. En la actualidad, el precio por gigabyte (GB) almacenado, para una unidad externa de
sobremesa, está por debajo del euro.
Así, un disco duro externo de 300 gigabytes de cinco pulgadas y cuarto, que es el tamaño normalizado para
un ordenador de sobremesa, cuesta del orden de 200 euros. Es muy rápido, porque gira a 7.200 vueltas por minuto, y
muy fiable, con tiempo medio entre fallos muy dilatado. Como soporte adicional de un ordenador de sobremesa, un
disco duro de 160 a 250 gigabytes es lo más recomendable.
La conexión USB de alta velocidad facilita el empleo de los discos duros externos, porque funcionan en
cualquier equipo sin necesidad de instalar programas adicionales. Son incluso apilables, como Brick de LaCie, con
capacidades desde 160 hasta 500 GB en las unidades de sobremesa, que recuerdan a los ladrillos de Lego. Están en
tres colores llamativos: blanco, rojo o azul.
Un disco duro que parece una pieza de juegos infantiles.
55
El mercado español de PC creció un 27% en 2005, HP encabeza el mercado español de PC con una cuota
del 20,7% en ventas y más de 750.000 unidades vendidas, según Gartner. La consultora, que afirma que España es el
país de mayor crecimiento de Europa occidental, atribuye al mercado de consumo este importante incremento.
Según los datos facilitados por la consultora Gartner, las ventas de PC en España alcanzaron un total de 3,63
millones durante el año pasado, lo que supone un incremento del 27,1% respecto al año anterior y coloca a nuestro
país en el primer puesto de Europa occidental en crecimiento de unidades. Asimismo, el mercado español fue el
quinto mayor de Europa occidental. La consultora atribuye estos resultados al crecimiento del mercado de consumo,
situado en el 33,6%, mientras que el profesional se incrementó en un 23,2 por ciento en el mismo período. Por
fabricantes, HP se situó en primer lugar con unas ventas de 752.398 equipos (sobremesa y portátiles), seguida de
Acer con 613.708 unidades. Completan la lista Dell, Fujitsu Siemens y Airis con unas ventas de 320.000, 212.000 y
197.000 unidades, respectivamente.
La mayor tasa de crecimiento fue la experimentada por Fujitsu Siemens Computers, con un 78,5%, seguida
de Dell, que incrementó en un 49,7% el número de unidades vendidas. http://www.gartner.com/
Ya está lista para salir al mercado la nueva generación de reproductores de "DVDs". Un nuevo formato de
alta definición que acaba de presentar Toshiba y, por supuesto, será totalmente incompatible con la propuesta de
Sony, el otro gran fabricante. Sólo uno de los dos conseguirá triunfar.
La siguiente generación de DVD llegará a los comercios en Abril, al menos la ideada por la multinacional
Toshiba, denominada HD DVD. Sin embargo, las primeras películas en este nuevo formato de DVD no llegarán
hasta el verano. Los primeros reproductores de DVD compatibles con el nuevo estándar llegarán al mercado
aprovechando las fiestas navideñas. Y para tener en las manos los primeros grabadores habrá que esperar hasta 2007.
La nueva tecnología desarrollada por Toshiba, que ha sido aprobada como un estándar por el DVD Fórum,
además de ofrecer mejor calidad de imagen y sonido, incrementa la capacidad de almacenamiento por tres (hay disco
de una capa de 15 Gb y de dos capas de 30 Gb, y lanzarán en cuanto se aprueben otros de tres capas de 45 Gb).
La compañía prevé que en tres años esta tecnología esté totalmente extendida. Su mejor baza para la
transición, en comparación con su contrincante en la guerra por este mercado, que es Sony con el Blue Ray Disc (sus
discos almacenan entre 25 Gb y 50 Gb), es que el nuevo formato es compatible con los actuales DVD, esto es, que
las películas antiguas que el usuario tenga en su casa van a poder verse en los nuevos reproductores preparados para
esta nueva generación de DVD.
1.1.5.3. Estructura lógica
La primera operación que debe efectuarse es dar formato a cualquier disco para que pueda ser utilizado.
Este proceso al igual que en los disquetes, divide el disco radialmente en sectores y círculos concéntricos llamados
cilindros.
Como en el caso de los disquetes, la combinación de dos o más sectores en una pista única representa un
cluster. Un cluster es la unidad de información mínima de almacenamiento que utiliza el DOS y Windows 9x. Los
clusters pueden estar formados por 1, 2,4, 8, 16, 32 o 64 sectores, dependiendo del tipo de disco. Así, en el último
56
caso, los sectores que contienen la información de un determinado archivo estarán contiguos al menos de 64 en 64.
Durante el formateo de un disco, éste queda dividido en las siguientes partes:
• Sector de arranque.
• Tabla de particiones.
• Tabla de Localización de archivos o FAT.
• Directorios.
• Área de datos.
Excepto la tabla de particiones, todas tienen la misma función que las estudiadas en el caso de un disco flexible.
• Sector de arranque: Su principal función es la de guardar toda la información relativa a las características del disco,
así como contener las rutinas de arranque del ordenador cuando el disco tiene cargado el sistema operativo.
• Tabla de particiones: Un disco duro puede dividirse en varias partes, haciendo como si se dispusiera de varios
discos duros distintos. Estas partes reciben el nombre de partición y cada una de ellas puede contener un sistema
operativo distinto. La tabla de particiones recoge las particiones que se le han hecho al disco, qué sistemas operativos
tiene cargados, cuál de ellos se va a cargar cuando se arranque el ordenador, en qué cara, cilindro y sector empieza y
acaba cada partición, así como el número de sectores que ocupa cada una. La información relativa a la tabla de
particiones se guarda en sector 0 del cilindro 0 de la cara 0. Puede ser creada o modificada por el programa FDISK
que acompaña al sistema operativo. Cuando se crea una nueva partición o se modifica el tamaño de las existentes, se
tiene que formatear a continuación la parte del disco modificada o todo el disco si afecta a la partición primaria.
• Tabla de localización de archivos o FAT: La tabla de localización de archivos contiene información que indica qué
clusters están ocupados por cada uno de los archivos y cuáles están libres todavía. También indica qué clusters no
son utilizables a causa de defectos del disco.
El número de clusters esta indicado por 16 bits en el caso del Windows 95 (y MS-DOS), y por 16 o 32 bits
en el caso de Windows 95 OSR2 y Windows 98,; para almacenamientos que utilizan FAT de 16 bits (FAT 16), con
capacidad de direccionar hasta 65.536 posiciones o clusters( 65.536 clusters x 32 KB = 2.097.152 KB). Para discos
de gran capacidad (a partir de 2 Gbytes) se suele utilizar FAT de 32 bits (FAT 32), con capacidad de hasta
268.435.456 clusters por partición, con una capacidad teórica de 2 TB (1 Terabyte = 1024 Gygabytes)
• Directorios: Los discos pueden ser divididos en áreas lógicas, de forma que dentro de cada área se podrán situar
archivos o incluso más áreas, formando así una estructura de áreas en árbol. Estas áreas reciben el nombre de
directorios y subdirectorios (carpetas en Windows), y en cada una de ellas se mantiene una lista de todos los archivos
o subdirectorios que contiene, así como los datos que le hacen falta al S.O. para identificar, localizar y gestionar cada
uno de esos archivos o subdirectorios, como su longitud, fecha de creación, posición en el disco, etc.
• Área de datos: En esta zona se encuentran todos los sectores para los archivos del usuario, tanto los que están
ocupados como los que están libres.
1.1.5.4. El interfaz ATA
Los discos duros se conectan con el bus del sistema mediante distintos tipos de interfaces o adaptadores
57
para buses de datos.
Los interfaces a disco duro han sido varios en la historia de estos elementos; el interfaz ST-506 creado en
1979 por SEAGATE disponía de dos conectores, uno de 34 patillas y otro de 20 y con capacidades de hasta 200
Mbytes.
El interfaz ESDI (Enhanced Small Device lnterface —pequeño dispositivo con interfaz ensanchado—)
desarrollado en 1983 por Maxtor tiene el mismo tipo de conector y capacidad de hasta 1 Tbytes .
El más popular y difundido en los PCs es la interfaz IDE, que recibe el nombre oficial de ATA
(ATAttachment, conexión tipo AT), creado en 1983 para discos duros IDE de 40 patillas, que permite conectar dos
unidades en el mismo cable.
En los discos tipo IDE, el controlador de la interfaz forma parte de la unidad junto con la mecánica del
disco, de forma que el disco emplea un cable de datos que conecta, directamente, con el bus del sistema situado en la
placa base. La combinación de la unidad de almacenamiento y la interfaz de control simplifica mucho la instalación
del dispositivo y, además, aporta otras ventajas como el hecho de que los datos, almacenados magnéticamente, son
captados por la parte mecánica de la unidad de disco (de tipo analógico), convertidos en señales digitales e
introducidos en el bus del sistema desde la unidad de disco. De este modo, pueden reducirse el número total de
componentes y la extensión de los circuitos y las conexiones analógicas, aumentando la resistencia ante los ruidos e
interferencias.
Las unidades de disco IDE no pueden cambiar de controlador, ya que son combinaciones fijas de discos y
controladores perfectamente optimizadas para trabajar de forma conjunta sin necesidad de ajustar ningún tipo de
configuración.
Los discos IDE emplean un cable tipo cinta de 40 pins o patillas de datos, para conectarse a los zócalos IDE
de la placa base. Los conectores IDE de la placa base son, básicamente, ranuras de expansión ISA de 16 bits y 98
pins de datos remodelados para emplear únicamente los 40 pins que necesita el controlador de disco.
Las funciones que incorpora cada una de las especificaciones ATA incluyen la definición de las señales del
conector, las funciones y características de dichas señales, el tipo de cable, etc.
Cuando en un mismo bus se encuentran en funcionamiento dos controladores, ambos tratan de responder a
los mismos comandos lo que provoca gran número de conflictos.
El estándar ATA resuelve este problema al permitir que dos controladores puedan funcionar en un mismo
bus, conectados al mismo cable de datos y discriminando los comandos dirigidos a cada unidad. Para ello
conseguirlo se designa una unidad como primaria (master o principal) y la otra como secundaria (slave o esclavo),
cambiando la posición de un puente o interruptor incorporado en cada disco ATA.
Las placas base (actuales) suelen incluir 1 conector para floppy y dos conectores IDE que suelen ser de tipo
Enhanced IDE (EIDE) también denominado Fast-ATA o Ultra-ATA, siendo posible conectar hasta 4 dispositivos
IDE a 66 Mbytes/s, (actualmente se llega a los 100 Mbytes/s, Ultra ATA 100).
1.1.5.4.1. Modos de transferencia:
58

Modo PIO (Programmed Input/output –modo de entrada/salida programado), empleado en principio por el
estándar ATA, sus prestaciones dependen, en gran medida por el microprocesador, ya que utiliza sus registros
internos para indicar las direcciones y posiciones de la información que debe transferir.

Modo DMA (Direct Memory Access –acceso directo a memoria-): usa muy pocos recursos del Microprocesador
y los datos pasan del disco duro directamente a la memoria.
1.1.5.5. Geometría y capacidad
La geometría física de un disco duro permite dividir y gestionar toda su capacidad mediante pequeños
bloques de información. Cada bloque mínimo de información está localizado en la superficie magnética de los
platos. Además de los sectores por pista, otros de los parámetros geométricos en los que se organiza un disco duro
son los cabezales y los cilindros (estos tres parámetros se identifican con las siglas SCC).
La traducción de los valores SCC físicos a valores SCC lógicos, que cuentan con el mismo número de
sectores totales, permite mantener la compatibilidad del sistema operativo, aumentando la capacidad de los discos.
Figura 1.1.9
La lógica de un disco duro traduce los valores lógicos de sectores, cilindros y cabezales (SCC) , que recibe
con cada comando, obteniendo los valores SCC físicos que le indican la localización de un determinado sector. En
consecuencia, el disco traduce los valores SCC que recibe (y que provienen de la traducción en el BIOS de los
valores SCC que maneja el SO).
Cuando se configura un disco duro en el BIOS, uno de los parámetros que se indica es el modo de
traducción que se empleará al acceder al disco duro mediante la interrupción 13h. Esta interrupción gestiona todos
59
los accesos del sistema operativo al disco duro, permitiendo aplicar la traducción o conversión de geometría entre
ambos.
En modo Normal o CHS (Cylinder Head Sector, cilindro-cabezal-sector), el sistema operativo facilita los
parámetros lógicos al BIOS que los envía, directamente, a la unidad de disco. (HDD de hasta 504 MB)
Al hablar de los discos duros de más de 504 Mbytes, para poder trabajar con ellos, la BIOS tiene dos
sistemas que son: ECHS (Extended Cylinders Heads Sectors —cilindros cabezas sectores extendido—) y LBA
(Lógical Block Addressing —direccionamiento por bloque lógico—).
El modo ECHS intercepta las transacciones entre el SO y el disco duro, desde la interrupción 13h, y las
reenvía alterando los valores SCC del sistema operativo adaptados a los parámetros lógicos que el disco duro facilita
al BIOS.
Cuando la lógica del disco duro recibe los comandos del BIOS, aplica la traducción geométrica final, para
localizar la información dentro de la estructura SCC real. Los discos que emplean ECHS tienen un tamaño máximo
de 8 GB.
El modo LBA numera todos los sectores del disco empezando por el 0. La tabla de localización física de los
sectores que componen un disco LBA tiene un tamaño de 28 bits. Un disco LBA puede contener un máximo de
268.435.436 sectores de 512 bytes, lo que supone una capacidad de 128 GB.
El aprovechamiento óptimo del direccionamiento LBA precisa de la eliminación de todos los procesos de
traducción geométrica entre el SO, el BIOS y la lógica del disco duro. Esto es posible en PCs que incorporen discos
duros LBA y Windows 95/98 o NT, porque estos sistemas operativos de 32 bits trabajan en modo protegido y
pueden acceder directamente a las unidades de disco, sin tener que emplear la interrupción 13h del BIOS. De este
modo, todas las transacciones entre el disco duro y el SO se efectúan directamente con direcciones de sectores en
modo LBA. Así se consigue un incremento notable de las prestaciones del sistema.
1.1.5.6. Características técnicas de los discos duros.

Velocidad de rotación: está entre 4.500 r.p.m. (revoluciones por minuto) y 7.200 r.p.m. Actualmente la
velocidad de rotación alcanzan las 10.000 r.p.m. Cuanto mayor sea esta velocidad, mayor será la
velocidad de transferencia, pero también el disco y los circuitos se calientan más.

Número de sectores por pista: cuanto mayor sea el número de sectores mayor será la capacidad del disco y
más datos podrá leer en una vuelta.

Tiempo de búsqueda: tiempo medio necesario para que las cabezas se posiciones en una pista determinada
requerida. Se suele dar un tiempo medio. Cuanto menor sea el diámetro del disco, menor será el tiempo de
búsqueda.

Tiempo de conmutación de cabezas: es el tiempo medio que tarda el disco en conmutar para leer y escribir
información con dos cabezas distintas.

Tiempo de conmutación de cilindros: tiempo medio para mover las cabezas a la próxima pista para leer o
escribir datos.

Latencia de rotación: después de que la cabeza está posicionada sobre la pista, hay que esperar a que llegue
60
el sector para leer o escribir en él. Este tiempo se denomina latencia de rotación y se mide en milisegundos.
A mayor velocidad de giro, menor latencia de rotación. Es típico una latencia de 4 ms a 7.200 r.p.m. y de 6
ms a 5.400 r.p.m.

Tiempo de acceso a datos: es la combinación del tiempo de búsqueda, tiempo de conmutación de cabezas y
latencia de rotación medido en ms.

Caché: los discos duros modernos disponen de una memoria intermedia donde precargan datos del disco
duro para enviarlos a memoria cuando los pida el sistema, sin tener que leerlos del disco físico. La cantidad
de caché‚ es variable de unos discos a otros.
1.1.6. Generalidades sobre el interfaz SCSI
Su desarrollo se realizó con la intención de facilitar un sistema fiable que permitiera la comunicación de los
grandes sistemas con las unidades de almacenamiento, pero con la menor pérdida de señal y con un tiempo de
respuesta muy elevado. Y con la ventaja añadida de ser totalmente independientes de la plataforma empleada (PC,
MAC, etc.), con lo que se puede compartir información con todo tipo de sistemas, siempre y cuando compartan este
bus de comunicación.
Por otra parte, se pretendía proporcionar una interfaz para unidades de almacenamiento con soporte para
direccionamientos lógicos (ofrecer la apariencia de bloques contiguos para almacenar datos, con independencia de su
localización física), así como permitir la transferencia de datos en paralelo (a diferencia de la transmisión serie de la
interfaz IDE), lo que permite un rendimiento mucho mayor.
Tabla 1.1.4
61
SCSI es un interfaz inteligente, en el sentido de que es realmente una CPU, controlando ella directamente a
los periféricos y descargando de esta forma a la CPU principal de este trabajo (de hecho a la controladora SCSI
también se la conoce como host adapter” —adaptador principal—). La controladora SCSI puede controlar hasta 7 (o
15) periféricos, cosa que no puede hacer EIDE, ya que en ésta el trabajo de manejo de los periféricos lo sigue
haciendo la CPU principal.
SCSI dispone además de todo un juego de comandos que le permiten un control más eficaz de los
periféricos. SCSI es capaz de identificar a cada sector del disco por un número independiente, y no como lo hacían
las controladoras anteriores, teniendo que indicar la cabeza, el cilindro y el sector correspondiente.
Características avanzadas:
• Modo de transmisión (síncrono/asíncrono): El modo de transmisión síncrono está controlado por una señal de reloj,
alcanzándose velocidades más altas que con el asíncrono. El modo síncrono es un modo que no lo pose en todos
los periféricos SCSI, pero en cambio las transferencias asíncronas están disponibles en todos los dispositivos. Lo
mejor es activar la negociación de transferencias síncronas en los periféricos que lo posean
• Paridad: Igual que ocurre con la memoria, sirve pan detectar errores en las transmisiones, y debemos activarla
siempre que sea posible, ya que añade un importante grado de seguridad a las operaciones.
• Desconexión de periféricos: De gran utilidad en sistemas con varios periféricos SCSI, ya que permite que los
distintos periféricos cumplan las operaciones que se les han asignado sin estar conectado al bus, que queda libre
para otros periféricos. En el caso de los CD-ROM es muy importante, ya que son periféricos lentos, y si
permanecen enganchados al bus, impiden la comunicación de la tarjeta con otros dispositivos.
1.1.6.1. Instalación y configuración
Para poder utilizar los dispositivos SCSI, se necesita una controladora SCSI que puede venir en la placa
base (no es muy habitual) o instalarla como una tarjeta controladora. En la actualidad dicha tarjeta será del tipo PCI.
La controladora o tarjeta controladora hace de intermediaria entre el microprocesador y los dispositivos
SCSI. La tarjeta controladora interpreta las ordenes que le envía el microprocesador y hace que por ejemplo, la
unidad de disco mueva las cabezas, lea o escriba información, hace comprobaciones para detectar posibles errores de
lectura, y todo esto a velocidades elevadas.
También es la encargada de enviar la información hacia la impresora, codificando las órdenes dadas por el
microprocesador para la impresión de datos. Así mismo, trabaja con los puertos serie, enviando información a través
de ellos (por ejemplo hacia un módem) y recibiendo información de ellos (por ejemplo de un ratón o del módem).
Además de la instalación física hay que configurar esta nueva situación de forma que el ordenador sepa
exactamente de qué nuevo dispositivo dispone.
Esta configuración puede ser en el SETUP, o bien mediante la instalación de un software incluido con la tarjeta, pero
de cualquier forma, habrá que verificar los siguientes puntos:
•
Lo primero es comprobar que la tarjeta ha encajado correctamente en la ranura de expansión.
•
Verificar el valor de la IRQ asignado a la tarjeta y comprobar que no esté siendo utilizado por otro
62
dispositivo. Este valor puede asignarse en fábrica o bien de forma automática al insertar la tarjeta en la ranura
PCI. Hay tarjetas que obligatoriamente requieren un valor, con lo cual no se podrán instalar 2 tarjetas con
dicho valor, serían incompatibles.
•
Comprobar que las direcciones de memoria asignadas a la tarjeta no coinciden con otro dispositivo.
•
Comprobar que las direcciones de entrada/salida asignadas a la tarjeta no coinciden con otro dispositivo.
•
Comprobar que el canal de DMA asignado no está siendo usado por otro dispositivo.
Instalación de un periférico sobre una tarjeta SCSI es necesario seguir el siguiente procedimiento:
1.- Selección de identificación del dispositivo (SCSI ID). En el caso de SCSI, se tienen dos identificadores: LUN
(Logical Unit Number), para el caso de tener más de una tarjeta SCSI. La tarjeta LUN 0 es la maestra, el resto son
tarjetas esclavas. Toda la comunicación con el ordenador se lleva a cabo desde la ROM BIOS situada en la tarjeta
maestra, quedando el resto deshabilitadas.
En una misma tarjeta, cada periférico está identificado por un número ID (SCSI ID), puede tomar los valores de 0 a
7, a excepción del escogido para la controladora.
La combinación de los número LUN e SCSI ID identifica a cada periférico.
Figura 1.1.12 2.- Colocación de la resistencia terminal.
63
Todas las unidades SCSI tienen instaladas unas resistencias al final del bus de datos que son utilizadas para
evitar los ecos de las señales del bus. Cuando solo se tiene instalado un periférico, la resistencia terminal debe
colocarse al final, uno en la controladora y otro en el periférico instalado
Otras disposiciones de dispositivos:
64
Figuras 1.1.14 a), b) y c)
El cable SCSI puede tener una longitud desde 6 hasta 15 metros sin causar problemas.
65
3.- Control de paridad. Al activar el control de paridad , se aumenta la fiabilidad con que se transmiten los datos a
través del bus.
4.- Conexión de la unidad a la tarjeta controladora.
5.- Conexión de la alimentación.
6.- En el caso del disco duro, hacer la partición y formateado.
7.- Instalación del sistema operativo si va a ser el disco principal.
8.- En el caso de CD-ROM / DVD instalar el controlador.
1.1.7. OTRAS UNIDADES DE ALMACENAMIENTO
1.1.7.1. Zip (Iomega) - 100 MB
• Pros: portabilidad, reducido formato, precio global, muy extendido
• Contras: capacidad algo reducida, incompatible con disquetes de 3,5"
Éstos son dispositivos magnéticos un poco mayores que los clásicos disquetes de 3,5 pulgadas, aunque
mucho más robustos y fiables, con una capacidad sin compresión de 100 MB una vez formateados.
Este tamaño les hace inapropiados para hacer copias de seguridad del disco duro completo, aunque idóneos
para archivar todos los archivos referentes a un mismo tema o proyecto en un único disco.
Su velocidad de transferencia de datos alrededor de 1 MB/s para la versión SCSI. Existen en diversos
formatos, tanto internos como externos. Los internos pueden tener interfaz IDE, como el de un disco duro o CDROM, o bien SCSI. Las versiones externas aparecen con interfaz SCSI o bien conectable al puerto paralelo, sin tener
que prescindir de la impresora conectada a éste.
66
Figura 1.1.16
1.1.7.2. SuperDisk LS-120 - 120 MB (Imation/Panasonic)
• Pros: reducido formato, precio global, compatibilidad con disquetes 3,5"
• Contras: capacidad algo reducida, menor aceptación que el Zip La velocidad de transferencia de este
dispositivo es de unos 400 Kb/s.
hace la sencilla.
Figura
1.1.17
1.1.7.3. EZFlyer (SyQuest) - 230 MB a 1,5 GB
• Pros: precio de los discos, capacidad elevada
• Contras: poca implantación en España
Existe en versiones EIDE, SCSI y para puerto paralelo. Como dispositivo de este tipo, es tremendamente
67
veloz: hasta 4 Mbytes/s y menos 13,5 ms de tiempo de acceso para la versión SCSI. La unidad tiene conexión IDE
para la versión interna o bien puerto paralelo para la externa, y más reciente una versión USB que instalación aún
más.
1.1.7.4. Magneto-ópticos de 3,5" - 128 MB a 640 MB
•
Pros: alta seguridad de los datos, portabilidad, bajo precio de los discos
•
Contras: inversión inicial, capacidad relativamente reducida
Almacenan datos prácticamente para siempre, sin afectarles lo más mínimo los campos magnéticos (ni el
polvo, calor, humedad, etc, hasta un límite razonable), a la vez que le permite reescribir sus datos tantas veces como
quiera. Son capaces de almacenar hasta 640 MB en discos similares a los disquetes de 3,5" que tienen una cubierta
de plástico para protegerlos de los golpes y el polvo.
Figura 1.1.19
1.1.7.5. Unidades de CD-ROM - 650 MB y 700 MB
•
Pros: alta seguridad de los datos, compatibilidad, bajo precio de los discos
•
Contras: inversión inicial, capacidad y velocidad relativamente reducidas
Los lectores CD-ROM tienen una velocidad lineal constante ( los discos magnéticos tienen una velocidad
angular constante) de 153,60 Kbit/s, siendo esta la velocidad básica que ha ido aumentando 2x ..... 50x, etc.
El tiempo de acceso es de unos 200 a 300 ms. En cuanto a su velocidad de transferencia de información
varía entre 150 Kbytes/s (1x), 300 para unidades (2x), y así sucesivamente según la formula 150 x N, siendo N el
factor multiplicador de transferencia del CD-ROM. Poseen una caché o buffer para acelerar el acceso a los datos del
disco.
Conexión: Unidad IDE (maestro o esclavo)
Unidad conectada a la tarjeta de sonido
Unidad SCSI
68
1.1.7.5.1. Grabadoras y regrabadoras de CD-ROM
Lo primero, hacer distinción entre grabadoras (aquellas que sólo permiten grabar la información una vez,
sin que luego se pueda volver a escribir en el CD) y regrabadoras (las que, utilizando los discos apropiados,
permiten grabarles numerosas veces, en teoría unas mil).
Ya está lista para salir al mercado la nueva generación de reproductores de "DVDs". Un nuevo formato de
alta definición que acaba de presentar Toshiba y, por supuesto, será totalmente incompatible con la propuesta de
Sony, el otro gran fabricante. Sólo uno de los dos conseguirá triunfar.
La siguiente generación de DVD llegará a los comercios en Abril, al menos la ideada por la multinacional
Toshiba, denominada HD DVD. Sin embargo, las primeras películas en este nuevo formato de DVD no llegarán
hasta el verano. Los primeros reproductores de DVD compatibles con el nuevo estándar llegarán al mercado
aprovechando las fiestas navideñas. Y para tener en las manos los primeros grabadores habrá que esperar hasta 2007.
La nueva tecnología desarrollada por Toshiba, que ha sido aprobada como un estándar por el DVD Fórum,
además de ofrecer mejor calidad de imagen y sonido, incrementa la capacidad de almacenamiento por tres (hay disco
de una capa de 15 Gb y de dos capas de 30 Gb, y lanzarán en cuanto se aprueben otros de tres capas de 45 Gb).
La compañía prevé que en tres años esta tecnología esté totalmente extendida. Su mejor baza para la
transición, en comparación con su contrincante en la guerra por este mercado, que es Sony con el Blue Ray Disc (sus
discos almacenan entre 25 Gb y 50 Gb), es que el nuevo formato es compatible con los actuales DVD, esto es, que
las películas antiguas que el usuario tenga en su casa van a poder verse en los nuevos reproductores preparados para
esta nueva generación de DVD.
1.1.7.6. Jaz (Iomega) - 1 GB ó 2 GB
•
Pros: capacidad muy elevada, velocidad, portabilidad
•
Contras: inversión inicial, no tan resistente como un magneto-óptico, cartuchos relativamente caros
Existen tanto versiones IDE como SCSI y externas SCSI. La detección y configuración es automática para la
controladora. Su velocidad de transferencia es del orden de 4,67 Mbytes/s y su tiempo medio de acceso de 23 ms.
1.1.7.7. Cintas magnéticas de datos - hasta más de 4 GB
•
Pros: precios asequibles, muy extendidas, enormes capacidades
•
Contras: extrema lentitud, útiles sólo para backups
Las cintas magnéticas de datos o streamers presentan muchos problemas como dispositivo de almacenaje de
datos: casi todos los tipos son tremendamente lentas (típicamente menos de 250 Kb/s, una velocidad casi ridícula);
lo que es peor, los datos se almacenan secuencialmente, por lo que si quiere recuperar un archivo que se encuentra a
la mitad de la cinta deberá esperar varias decenas de segundos hasta que la cinta llegue a esa zona; y además, los
datos no están en exceso seguros, ya que como dispositivos magnéticos les afectan los campos magnéticos, el calor,
etc, además del propio desgaste de las cintas.
Uno de los motivos que hace tan lentas a las cintas de datos es el tipo de interfaz que se utiliza. Generalmente se usa
69
el conector para disquetera, el cual es muy lento 250 Kb/s máximo (que rara vez se alcanzan.
Figura 1.1.20
En otras cintas se utiliza el puerto paralelo (con mayor ancho de banda, pero apenas aprovechado) y en
cintas de datos más caras y rápidas se utilizan interfaces EIDE o SCSI, lo que aumenta el rendimiento. Además, el
modo de acceso secuencial hace totalmente imposible usarlas de forma eficaz "a lo disco duro".
Los tipos principales de unidades de cinta son las QIC, Travan y DAT.
Las cintas DAT (Digital Audio Tape), su acceso sigue siendo secuencial, pero la transferencia de datos continua
(lectura o escritura) puede llegar a superar 1 MB/s, lo que justifica que la práctica totalidad utilicen interfaz SCSI.
70
1.1.7.8. Magneto-ópticos de 5,25" - hasta 4,6 GB
• Pros: versatilidad, velocidad, enormes capacidades
• Contras: precios elevados
Los magneto-ópticos de 5,25" se basan en la misma tecnología que sus hermanos pequeños de 3,5", por
lo que atesoran sus mismas ventajas: gran fiabilidad y durabilidad de los datos a la vez que una velocidad
razonablemente elevada.
1.1.7.9. Unidades DVD-ROM (Digital Versatile Disc) Hasta 17 Gb.
Características técnicas perfeccionadas respecto al CD-ROM:

Menor longitud de onda del láser lector. (650 a 635 nm frente a los 780 nm del CD-ROM.

Menor tamaño de los puntos de memoria. (El agujero en el disco DVD puede tener un tamaño de 0,4 µm y
el espacio entre pistas de 0,47 µm)

Grabación a dos caras y en dos capas en una cara.

Mayor velocidad de lectura que cualquier CD-ROM, aproximadamente de 10,7 Mbits/s.

Capacidad de almacenamiento de hasta 17 Gbytes.

DVD simple cara y una capa – 4,7 Gbytes

DVD doble capa – 8,5 Gbytes

DVD doble cara y doble capa – 17 Gbytes.
Las unidades lectoras son compatibles con el formato CD-ROM.
71
5.- INFORME DE HARDWARE: TRABAJO PRÁCTICO SOBRE DISPOSITIVOS DE DISCO.
En un reciente articulo publicado en ELPAIS.es – el 21-04-2006, expertos de computadoras nos ayudan
a elegir componentes para un ordenador que sirva para las tareas más comunes, aquí Con el disco duro a cuestas
y los Consejos para decidirse a la hora de comprar discos externos
Fotos, video, música, documentos, juegos… todo lo que se le ocurra cabe en un DVD. El problema,
cuando viajamos o cuando trabajamos frecuentemente en diferentes lugares, es que si queremos ir recopilando
esas montañas de datos, sólo tenemos dos opciones: usar la grabadora de discos (y cargar con decenas de ellos),
o usar la gigantesca capacidad de un dispositivo de almacenamiento portátil. Siga estos consejos antes de
decidirse.
1.-La decisión más difícil. Lo primero que tiene que dilucidar es qué tipo de memoria quiere usar, o en
otras palabras: ¿quiere un disco duro “normal”, pero que pueda conectar fácilmente a cualquier ordenador, en
cualquier parte, o prefiere una memoria de almacenamiento flash, mucho más manejable?. Para decidirlo debe
tener en cuenta dos factores relacionados de manera inversa, comodidad de uso y capacidad.
2.-Flash es mejor si… queremos intercambiar pocos archivos o de escaso tamaño, entre dos o más
ordenadores y de manera frecuente -como al llevar un archivo de la oficina a casa para trabajar en ella-, y
preferimos que el tamaño del dispositivo sea lo más pequeño posible. La pega: el acceso a los datos es más lento,
y la tecnología y el precio limitan su capacidad de almacenamiento.
3.-Un disco duro convencional es más útil si… lo que buscamos es más capacidad, y no nos importa
cargar con un dispositivo más grande a cambio de poder usarlo igual que si fuera uno más del ordenador al que
lo conecte. La pega: es más aparatoso, ya que siempre incorpora un transformador para alimentarlo desde la red
eléctrica.
4.- ¿Dónde está la frontera? En los 2 gigas (2.048 megabytes). Esta es la cifra mágica a la hora de
decidirse por uno u otro dispositivo. Si lo que quiere es simplemente llevar unos cuantos archivos, y no necesita
arrastrar por la ciudad 20 películas metidas en una caja, elija memorias flash de esa cifra como máximo (las hay
mayores, pero su precio se dispara). Si necesita una capacidad de almacenamiento por encima del número
mencionado, compre un disco duro portátil.
5.-Lo que hay que tener en cuenta al comprar flash. Si opta por la primera opción, escoja
simplemente aquél dispositivo que le ofrezca más capacidad a menor precio. Algunas opciones que pueden
parecer buena idea a primera vista, como los relojes-USB, las gafas-USB y otras extrañas combinaciones, suelen
costar más simplemente por el hecho de integrar dos objetos en uno. Ya sabe: un reloj es un reloj, y una “llave”
USB es por fuerza otra cosa muy distinta.
6.- ¡Pero si ya tengo un disco!. Sólo hay una buena manera de combinar un disco duro flash con otro
objeto: si ya tiene un reproductor MP3, tenga en cuenta que en la gran mayoría de los casos, éste no sirve sólo
para almacenar música, sino cualquier tipo de fichero. Así que si está dudando en este preciso momento si
comprar alguno de estos dispositivos musicales, consulte al vendedor si podrá usarlo también como un disco
externo.
7.- Si el disco duro es su opción. La variedad de formatos y de capacidad es muy grande, así que –
consejo obvio- elija el que mejor se ajuste al volumen de almacenamiento que necesita y a su presupuesto. Lo
72
que sí debe tener en cuenta son dos aspectos: la portabilidad (los tamaños difieren mucho de unos a otros), y
sobre todo, la conexiones de salida y entrada de datos.
Respecto a esta última cuestión, los discos duros pueden conectarse al ordenador mediante un cable
USB (el de el enchufe negro y aplanado) o mediante un cable Firewire (con el conector pequeño y cuadrado si se
ve en sección). Casi todos los dispositivos utilizan el primer tipo de conexión, ya que ofrece una velocidad de
transmisión de datos entre el ordenador y el disco más que suficiente. Pero si quiere la máxima velocidad (ideal
para archivos enormes, como películas sin comprimir) elija Firewire.
8.- ¿Es verdad que lo puedo enchufar a la tele? Sí, si elige un disco duro que lleve incorporado un
programa que le permita funcionar como un reproductor (o como se le conoce en el argot, como ‘media center’).
Además de las conexiones al ordenador, tienen salidas a la televisión y un mando a distancia, por lo que sirven
para ver las películas que se transfieren á ellos desde el ordenador.
9.- Y qué es un disco de Red. Es, simplemente, un disco duro que no tiene por qué ser necesariamente
externo, pero que está conectado a una red local. La idea en este caso es usarlo para que dos o más ordenadores
puedan usarlo para almacenar datos. Nos referimos a ellos porque ya hay en el mercado discos duros de red
externos que funcionan además como ‘media center’, de manera que se pueden usar para transferir a ellos los
archivos multimedia que se descarguen con el ordenador, y escucharlos o verlos en el salón de casa, por ejemplo.
Pero esto vamos a concretarlo más con los conceptos teóricos que aparecen en este inicio del artículo.
Dispositivos de Disco
Los primeros PCs carecían de disco duro, sólo disponían de una o dos disqueteras gracias a las cuales se
cargaban los programas y se guardaba la información; incluso era posible llegar a tener almacenados en un único
disquete ¡de 360 Kb! el sistema operativo, el procesador de textos y los documentos más utilizados.
Evidentemente, los tiempos han cambiado; hoy en día, quien más quien menos dispone de discos duros de
capacidad equivalente a miles de aquellos disquetes, y aun así seguimos quejándonos de falta de espacio. En
fin...
Generalidades
Antes de entrar a discutir los tipos de disquetes, discos duros, dispositivos de almacenamiento masivo
portátiles y demás, vamos a explicar algunos conceptos que aparecerán en la explicación de todos estos aparatos.
El tamaño: Kb, MB y GB
Aparte de la durabilidad, la portabilidad, la fiabilidad y otros temas, cuando buscamos un dispositivo de
almacenamiento lo que más nos importa generalmente es su capacidad.
En informática, cada carácter (cada letra, número o signo de puntuación) suele ocupar lo que se
denomina un byte (que a su vez está compuesto de bits, generalmente 8). Así, cuando decimos que un archivo de
texto ocupa 4.000 bytes queremos decir que contiene el equivalente a 4.000 letras (entre 2 y 3 páginas de texto
sin formato).
Por supuesto, el byte es una unidad de información muy pequeña, por lo que se usan sus múltiplos:
kilobyte (Kb), megabyte (MB), gigabyte (GB)... Debido a que la informática suele usar potencias de 2 en vez de
73
potencias de 10, se da la curiosa circunstancia de que cada uno de estos múltiplos no es 1.000 veces mayor que el
anterior, sino 1.024 veces (2 elevado a 10 = 1.024). Por tanto, tenemos que:
1 GB = 1.024 MB = 1.048.576 Kb = más de 1.073 millones de bytes
¡La tira de letras, sin duda! Se debe tener en cuenta que muchas veces en vez del 1.024 se usa el 1.000,
por ejemplo para hacer que un disco duro parezca un poco mayor de lo que es en realidad, digamos de 540 MB
en vez de 528 MB (tomando 1 MB como 1.000 Kb, en vez de 1.024 Kb).
Claro está que no todo son letras; por ejemplo, un archivo gráfico de 800x600 puntos en "color real"
(hasta 16,7 millones de colores) ocupa 1,37 MB (motivo por el cual se usan métodos de compresión como JPEG,
GIF, PCX, TIFF); un sistema operativo como Windows 95 puede ocupar instalado más de 100 MB; 74 minutos
de sonido con calidad digital ocupan 650 MB; etcétera, etcétera.
La velocidad: MB/s y ms
La velocidad de un dispositivo de almacenamiento no es un parámetro único; más bien es como un
coche, con su velocidad punta, velocidad media, aceleración de 1 a 100 y hasta tiempo de frenado.
La velocidad que suele aparecer en los anuncios es la velocidad punta o a ráfagas, que suele ser la
mayor de todas. Por ejemplo, cuando se dice que un disco duro llega a 10 MB/s, se está diciendo que
teóricamente, en las mejores condiciones y durante un brevísimo momento es capaz de transmitir 10 megabytes
por segundo. Y aun así, puede que nunca consigamos llegar a esa cifra.
La velocidad que debe interesarnos es la velocidad media o sostenida; es decir, aquella que puede
mantener de forma más o menos constante durante lapsos apreciables de tiempo. Por ejemplo, para un disco duro
puede ser muy aceptable una cifra de 5 MB/s, muy lejos de los teóricos 16,6 MB/s del modo PIO-4 o los 33,3
MB/s del UltraDMA que tanto gustan de comentar los fabricantes, claro.
Y por último tenemos el tiempo medio de acceso. Se trata del tiempo que por término medio tarda el
dispositivo en responder a una petición de información debido a que debe empezar a mover sus piezas, a girar
desde el reposo si es que gira y a buscar el dato solicitado. En este caso se mide en milisegundos (ms), y puesto
que se trata de un tiempo de espera, tiempo perdido, cuanto menos sea mejor. Por ejemplo, un disco duro tiene
tiempos menores de 25 ms, mientras que un CD-ROM puede superar los 150 ms. También se habla a veces del
tiempo máximo de acceso, que suele ser como el doble del tiempo medio.
Tecnologías: óptica y magnética
Para grabar datos en un soporte físico más o menos perdurable se usan casi en exclusiva estas dos
tecnologías. La magnética se basa en la histéresis magnética de algunos materiales y otros fenómenos
magnéticos, mientras que la óptica utiliza las propiedades del láser y su alta precisión para leer o escribir los
datos.
74
No vamos a explicar aquí las teorías físicas en que se basa cada una de estas tecnologías, yo lo he hecho
y no creo que fuera nada divertido ni útil para la mayoría; vamos más bien a explicar las características
peculiares prácticas de cada una de ellas.
La tecnología magnética para almacenamiento de datos se lleva usando desde hace decenas de años,
tanto en el campo digital como en el analógico. Consiste en la aplicación de campos magnéticos a ciertos
materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas
posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan los datos, bien
sean una canción de los Beatles o bien los bits que forman una imagen o el último balance de la empresa.
Dispositivos magnéticos existen infinidad; desde las casetes o las antiguas cintas de música hasta los
modernos Zip y Jaz, pasando por disqueteras, discos duros y otros similares. Todos se parecen en ser
dispositivos grabadores a la vez que lectores, en su precio relativamente bajo por MB (lo que se deriva de ser
tecnologías muy experimentadas) y en que son bastante delicados.
Les afectan las altas y bajas temperaturas, la humedad, los golpes y sobre todo los campos magnéticos;
si quiere borrar con seguridad unos cuantos disquetes, póngalos encima de un altavoz conectado en el interior de
un coche al sol y déjelos caer a un charco un par de veces. Y si sobreviven, compre acciones de la empresa que
los ha fabricado.
La tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera aplicación
comercial masiva fue el superexitoso CD de música, que data de comienzos de la década de 1.980. Los
fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o
escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por
una capa transparente para su protección del polvo.
Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque la
información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en
vez de analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta
la aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros
y apretado los surcos para que quepa más información en el mismo espacio; vamos, el mismo método que
usamos todos para poder meter toda la ropa en una única maleta cuando nos vamos de viaje...
La principal característica de los dispositivos ópticos es su fiabilidad. No les afectan los campos
magnéticos, apenas les afectan la humedad ni el calor y pueden aguantar golpes importantes (siempre que su
superficie esté protegida). Sus problemas radican en la relativa dificultad que supone crear dispositivos
grabadores a un precio razonable, una velocidad no tan elevada como la de algunos dispositivos magnéticos y en
que precisan un cierto cuidado frente al polvo y en general cualquier imperfección en su superficie, por lo que es
muy recomendable que dispongan de funda protectora. De todas formas, un CD es mucho más probable que
sobreviva a un lavado que un disquete, pero mejor no tener que probarlo.
El interfaz SCSI
Acrónimo de Small Computer Systems Interface y leído "escasi", aunque parezca mentira. Mucha gente
ha oído hablar de estas siglas y en general las asocian a ordenadores caros o de marca y a un rendimiento
75
elevado, pero no muchos conocen el porqué de la ventaja de esta tecnología frente a otras como EIDE. La
tecnología SCSI (o tecnologías, puesto que existen multitud de variantes de la misma) ofrece, en efecto, una
tasa de transferencia de datos muy alta entre el ordenador y el dispositivo SCSI (un disco duro, por ejemplo).
Pero aunque esto sea una cualidad muy apreciable, no es lo más importante; la principal virtud de SCSI es que
dicha velocidad se mantiene casi constante en todo momento sin que el microprocesador realice apenas
trabajo.
Esto es de importancia capital en procesos largos y complejos en los que no podemos tener el ordenador
bloqueado mientras archiva los datos, como por ejemplo en la edición de vídeo, la realización de copias de CD o
en general en cualquier operación de almacenamiento de datos a gran velocidad, tareas "profesionales" propias
de ordenadores de cierta potencia y calidad como los servidores de red.
Las distintas variantes de la norma son:
Tipo de norma SCSI
Transferencia
con 8 bits
máxima
Transferencia
máxima
con 16 bits (modos Wide)
SCSI-1
5 MB/s
No aplicable
SCSI-2 o Fast SCSI
10 MB/s
20 MB/s
Ultra SCSI o Fast-20
20 MB/s
40 MB/s
Ultra-2 SCSI o Fast-40
40 MB/s
80 MB/s
Los tipos de SCSI de 8 bits admiten hasta 7 dispositivos y suelen usar cables de 50 pines, mientras que
los SCSI de 16 bits o Wide, "ancho" en inglés, pueden tener hasta 15 dispositivos y usan cables de 68 pines. La
denominación "SCSI-3" se usa de forma ambigua, generalmente refiriéndose al tipo Ultra SCSI de 8 bits, aunque
a veces también se utiliza para los Ultra SCSI de 16 bits (o "UltraWide SCSI") y Ultra-2. Las controladoras
SCSI modernas suelen ser compatibles con las normas antiguas, por ejemplo ofreciendo conectores de 50 pines
junto a los más modernos de 68, así como conectores externos (generalmente muy compactos, de 36 pines),
salvo en algunos modelos especiales que se incluyen con aparatos SCSI que están diseñados sólo para controlar
ese aparato en concreto, lo que abarata su coste. Los dispositivos SCSI deben ir identificados con un número
único en la cadena, que se selecciona mediante una serie de jumpers o bien una rueda giratoria en el dispositivo.
Actualmente algunos dispositivos realizan esta tarea automáticamente si la controladora soporta esta
característica, lo que nos acerca algo más al Plug and Play, "enchufar y listo". Debe tenerse en cuenta que las
ventajas de SCSI no se ofrecen gratis, por supuesto; los dispositivos SCSI son más caros que los equivalentes
con interfaz EIDE o paralelo y además necesitaremos una tarjeta controladora SCSI para manejarlos, ya que sólo
las placas base más avanzadas y de marca incluyen una controladora SCSI integrada. Si está pensando en
comprar un ordenador o una placa base nuevos, piense si no le merecería la pena adquirir una placa base que la
incorpore por lo que pueda necesitar en el futuro...
Los sistemas de archivo
Todo dispositivo para el almacenamiento de datos debe ser formateado antes de su uso; es decir, que se
le debe dar un cierto formato lógico que indique cómo será almacenada la información: el tamaño de los
76
paquetes, la forma en que se distribuyen, los atributos posibles de los archivos (nombre, tipo, fecha...) y otras
características que definirán un tipo de sistema de archivo concreto. En el mundo PC el sistema de archivo más
extendido es el FAT16 de las versiones de DOS superiores a la 3 y del Windows 95 original, usado en los
disquetes y la mayoría de los discos duros. La VFAT (FAT Virtual) de Windows 95 que permite nombres largos
no es más que un parche sobre este sistema de archivo, no un sistema de archivo en sí.
El otro sistema en rápida extensión es el FAT32 de Windows 98 y de la versión OSR-2 de Windows 95
(la "4.00.950B", como se identifica a sí misma en el icono de Sistema del Panel de control). Las ventajas de este
sistema de archivo frente al anterior radican en que es de 32 bits y tiene un tamaño de cluster muy pequeño, lo
que le hace capaz de admitir grandes discos duros y aprovecharlos muy bien, además de no necesitar artificios
como VFAT para usar nombres largos de archivo. Vayamos por partes; primero, los clusters; son como
"cajones" en que el disco duro está dividido, en los cuales se guardan los archivos. Se da la peculiaridad de que
un cluster no puede ser compartido por dos archivos distintos, por lo que si tenemos un tamaño de cluster de 16
Kb y queremos guardar un archivo que ocupa 17 Kb, se repartirá en dos clusters, ocupando uno entero y sólo 1
Kb del otro; el resto (15 Kb) se desperdiciará. Sí, ha leído bien; ¡tiraremos el 47% del espacio!!. Y esto no es
nada, ya verá.
Lo mismo ocurre si queremos almacenar un archivo que ocupa sólo 1 byte; si el cluster es de 16 Kb
(16.384 bytes), se desperdiciarán totalmente 16.383 bytes, ¡el 99,99% del espacio!! Como comprenderá, en estas
condiciones resulta muy importante mantener el tamaño del cluster lo menor posible para minimizar las pérdidas
que ocasionan estos archivos, especialmente los muy pequeños. Observe la tabla a continuación que relaciona el
tamaño de las particiones (a continuación explicaremos qué son) con el tamaño del cluster en FAT16 y en
FAT32:
Tamaño de la partición
Tamaño del cluster
FAT16
Hasta 2 GB
32 Kb
Menos de 1 GB
16 Kb
Menos de 512 MB
8 Kb
Menos de 256 MB
4 Kb
Menos de 128 MB
2 Kb
FAT32
A partir de 8 GB
8 Kb
Menos de 8 GB
4 Kb
En cuanto al tamaño de los discos, no es difícil de entender; si el sistema de archivo da direcciones de
archivo de 16 bits, esto nos da 2 elevado a 16 = 65.536 direcciones, que a un máximo de 32 Kb por cluster son
2.097.152 Kb, es decir, 2 GB como máximo para FAT16. ¿Quiere esto decir que no podemos usar discos de más
de 2 GB? No, afortunadamente; pero implica que deberemos dividirlos en varias particiones, que son cada una
de las divisiones lógicas (que no físicas) de un disco, las cuales se manejan como si fueran discos duros
separados (con su propia letra de unidad e incluso con diferentes tipos de sistema de archivo si lo deseamos). Por
77
ejemplo, un disco de 3,5 GB debe dividirse al menos en dos particiones de 2 GB o menos cada una para usarlo
con FAT16.
Para FAT32 el cálculo es similar, aunque no se usan los 32 bits, sino "sólo" 28, lo que da un máximo de
¡¡2.048 GB por partición!! (2 Terabytes) usando clusters de 8 Kb. Sin duda no necesitaremos hacer más de una
partición al disco... Almacenamiento
Unidades de disquete
Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de estos aparatos. Su
capacidad es totalmente insuficiente para las necesidades actuales, pero cuentan con la ventaja que les dan los
muchos años que llevan como estándar absoluto para almacenamiento portátil.
¿Estándar? Bien, quizá no tanto. Desde aquel lejano 1.981, el mundo del PC ha conocido casi diez tipos
distintos de disquetes y de lectores para los mismos. Originariamente los disquetes eran flexibles y bastante
grandes, unas 5,25 pulgadas de ancho. La capacidad primera de 160 Kb se reveló enseguida como insuficiente,
por lo que empezó a crecer y no paró hasta los 1,44 MB, ya con los disquetes actuales, más pequeños (3,5"), más
rígidos y protegidos por una pestaña metálica.
Incluso existe un modelo de 2,88 MB y 3,5" que incorporaban algunos ordenadores IBM, pero no llegó
a cuajar porque los discos resultaban algo caros y seguían siendo demasiado escasos para aplicaciones un tanto
serias; mucha gente opina que hasta los 100 MB de un Zip son insuficientes. De cualquier forma, los tipos más
comunes de disquetes aparecen en la siguiente tabla:
Tamaño
Tipo de disco
Capacidad
Explicación
5,25"
SS/DD
180 Kb
Una cara, doble densidad. Desfasado
5,25"
DS/DD
360 Kb
Dos caras, doble densidad. Desfasado
5,25"
DS/HD
1,2 MB
Dos caras, alta densidad. Desfasado pero útil
3,5"
DS/DD
720 Kb
Dos caras, doble densidad. Desfasado pero muy común
3,5"
DS/HD
1,44 MB
Dos caras, alta densidad. El estándar actual
Las disqueteras son compatibles "hacia atrás"; es decir, que en una disquetera de 3,5" de alta densidad
(de 1,44 MB) podemos usar discos de 720 Kb o de 1,44 MB, pero en una de doble densidad, más antigua, sólo
podemos usarlos de 720 Kb.
Por cierto, para distinguir a primera vista un disco de 3,5" de alta densidad de otro de doble,
basta con observar el número de agujeros que presenta en su parte inferior. Si tiene sólo uno, situado
en el lado izquierdo de la imagen y generalmente provisto de una pestaña móvil, se trata de un disco de doble
densidad; si tiene dos agujeros, no hay duda de que se trata de un disco de alta densidad. Si el primero de los
agujeros está al descubierto el disco estará protegido contra escritura; el segundo sólo sirve para diferenciar
ambos tipos de disquetes.
De cualquier forma, el disquete deberá estar formateado a la capacidad correcta, para lo cual podemos
usar la orden FORMAT del DOS o bien los menús de Windows (personalmente, prefiero la orden de DOS).
78
Debe tenerse en cuenta que si no especificamos nada, el disco intentará ser formateado a la capacidad nominal de
la disquetera, lo que con un disco de capacidad inferior puede ser un error desastroso. Por ejemplo, a
continuación aparecen algunas órdenes de formateado comunes:
Orden de formateado
Explicación
FORMAT A:
Da formato al disco de la unidad "A" a la capacidad nominal de la
disquetera
FORMAT B: /F:720
Da formato al disco de la unidad "B" a 720 Kb de capacidad
FORMAT A: /S
Da formato al disco de la unidad "A" a la capacidad nominal de la
disquetera y copia los archivos de sistema (es decir, crea un disco básico de
arranque)
Los ordenadores normales disponen de un puerto para dos disqueteras, que irán conectadas a un único
cable de datos. La que esté conectada en el extremo del mismo será la primera (la "A" en DOS) y la que esté en
el segundo conector, entre el ordenador y la anterior disquetera, será la segunda (la "B").
Resulta común tener un ordenador que resulta suficiente para las tareas que le pedimos, pero que tiene
una disquetera de un modelo anticuado, bien de 5,25" o de 3,5" de doble densidad, para las que incluso puede ser
difícil encontrar discos apropiados (especialmente en el caso de las de 5,25"). En tal caso, merece la pena instalar
una disquetera moderna de 3,5" y 1,44 MB, ya que cuestan menos y es una de las tareas más sencillas de hacer.
Los disquetes tienen fama de ser unos dispositivos muy poco fiables en cuanto al almacenaje a largo
plazo de la información; y en efecto, lo son. Les afecta todo lo imaginable: campos magnéticos, calor, frío,
humedad, golpes, polvo... Hace un tiempo verifiqué unos 25 disquetes de diferentes marcas de un antiguo 286,
que estaban guardados en una caja de plástico para disquetes, y casi la mitad no funcionaba, lo que no me
sorprendió en absoluto.
Si tiene programas en disquete, haga copias inmediatamente y guarde los originales en lugar seguro. Si
tiene datos importantes almacenados en disquete, haga copias nuevas y piense en otro método mejor de
almacenaje. Y ante todo, compre siempre disquetes de marca. No le salvarán de los fallos futuros, pero al menos
estarán más o menos bien de origen; las economías en estos temas son malas compañeras.
Dispositivos removibles
Vamos a comentar ahora los demás dispositivos de almacenamiento que no aparecen de manera
estándar en la configuración de un PC... al menos por ahora, porque tal como está el mundo informático nunca se
sabe cuándo serán tan comunes como la disquetera o el disco duro. Se denominan removibles no porque se les dé
vueltas como a la sopa, sino porque graban la información en soportes (discos o cartuchos) que se pueden
remover, extraer.
La clasificación hace referencia a su capacidad de almacenamiento, por ser ésta una de las principales
características que influyen en la compra o no de uno de estos periféricos, pero para hacer una compra inteligente
se deben tener en cuenta otros parámetros que se comentan en la explicación como velocidad, durabilidad,
portabilidad y el más importante de todos: su precio.
79
Dispositivos hasta 250 MB de capacidad
Son dispositivos que buscan ofrecer un sustituto de la disquetera, pero sin llegar a ser una opción clara
como backup (copia de seguridad) de todo un disco duro. Hoy en día muchos archivos alcanzan fácilmente el
megabyte de tamaño, y eso sin entrar en campos como el CAD o el tratamiento de imagen digital, donde un
archivo de 10 MB no es en absoluto raro.
Por ello, con estos dispositivos podemos almacenar fácil y rápidamente cada proyecto en un disco o
dos, además de poder realizar copias de seguridad selectivas de los datos del disco duro, guardando sólo los
archivos generados por las aplicaciones y no los programas en sí.
Zip (Iomega) - 100 MB

Pros: portabilidad, reducido formato, precio global, muy extendido

Contras: capacidad reducida, incompatible con disquetes de 3,5"
Las unidades Zip se caracterizan externamente por ser de un color azul oscuro, al igual que los
disquetes habituales (los hay de todos los colores, incluso algunos muy poco serios). Estos discos son
dispositivos magnéticos un poco mayores que los clásicos disquetes de 3,5 pulgadas, aunque mucho más
robustos y fiables, con una capacidad sin compresión de 100 MB una vez formateados.
Este tamaño les hace inapropiados para hacer copias de seguridad del disco duro completo, aunque
idóneos para archivar todos los archivos referentes a un mismo tema o proyecto en un único disco. Su velocidad
de transferencia de datos no resulta comparable a la de un disco duro actual, aunque son decenas de veces más
rápidos que una disquetera tradicional (alrededor de 1 MB/s para la versión SCSI).
Existen en diversos formatos, tanto internos como externos. Los internos pueden tener interfaz IDE,
como la de un disco duro o CD-ROM, o bien SCSI; ambas son bastante rápidas, la SCSI un poco más, aunque su
precio es también superior.
Las versiones externas aparecen con interfaz SCSI (con un rendimiento idéntico a la versión interna) o
bien conectable al puerto paralelo, sin tener que prescindir de la impresora conectada a éste. Puede funcionar de
pie o tumbada, y la única "pega" es que no nos guste su extravagante color (el azul marino profundo se lleva
mucho para este tipo de periféricos, pero no me pregunten el porqué). El modelo para puerto paralelo pone el
acento en la portabilidad absoluta entre ordenadores (basta que tengan este puerto, el de impresora), aunque su
velocidad es la más reducida de las tres versiones. Muy resistente, puede ser el acompañante ideal de un portátil.
Ha tenido gran aceptación, siendo el estándar "de facto" en su segmento, pese a no poder prescindir de
la disquetera de 3,5" con la que no son en absoluto compatibles, aunque sus ventajas puede que suplan este
inconveniente. El precio de la versión interna ronda las 14.000 pts más IVA, con discos entorno a 1.500 pts.
Por cierto, parece ser que muchas de las primeras unidades Zip sufrían el denominado "mal del click",
que consistía en un defecto en la unidad lectora-grabadora que, tras hacer unos ruiditos o "clicks", destrozaba el
disco introducido; afortunadamente, este defecto está corregido en las unidades actuales. En todo caso, los discos
son bastante resistentes, pero evidentemente no llegan a durar lo que un CD-ROM o un magneto-óptico.
80
SuperDisk LS-120 - 120 MB (Imation/Panasonic)

Pros: reducido formato, precio global, compatibilidad con disquetes 3,5"

Contras: capacidad algo reducida, menor aceptación que el Zip
Estos discos son la respuesta a la cada vez más común desesperación del usuario que va a grabar su
trabajo en un disquete y se encuentra con que supera los temidos 1,44 MB. No importa, meta un SuperDisk, que
aparenta ser un disquete de 3,5" algo más grueso, y ya tiene 120 MB a su disposición.
Aparentemente, esta compatibilidad con los disquetes clásicos (ojo, con la nueva disquetera, no basta
con comprarse los superdisquetes) deja K.O. al Zip, pero esto no es así. El problema está en que la velocidad de
este dispositivo, unos 400 Kb/s, si bien es suficiente y supera con creces la de una disquetera de 3,5", es algo
menos de la mitad de la de un Zip (al menos si se trata de la versión SCSI del Zip).
La unidad se vende con conexión IDE para la versión interna o bien puerto paralelo (el de impresora)
para la externa, que, aunque parece menos pensada para viajes accidentados que el Zip, permite conectarla a
cualquier ordenador sin mayores problemas. Además, acaba de ser presentada una versión USB que hace la
instalación aún más sencilla. Si la BIOS de su placa lo permite (lo cual sólo ocurre con placas modernas de una
cierta calidad, por ejemplo muchas para Pentium II) puede configurar la versión IDE incluso como unidad de
arranque, con lo que no necesitará para nada la disquetera de 3,5".
Su mayor "handicap" reside en haber dejado al Zip como única opción durante demasiado tiempo, pero
la compatibilidad con los disquetes de 3,5" y sus 20 MB extra parece que están cambiando esta situación. Si va a
comprar un ordenador nuevo, le compensará pedir que le instalen un SuperDisk en vez de la disquetera de 3,5"
(recuerde, si la BIOS lo admite); si no, la decisión entre Zip y SuperDisk es más difícil, incluso cuestan
prácticamente lo mismo.
ZFlyer (SyQuest) - 230 MB

Pros: precio de los discos, capacidad elevada

Contras: poca implantación en España
El EZFlyer es el descendiente del EZ135, cuyos discos de 135 MB puede utilizar además de los suyos
propios de 230 MB. Se trata de lo que se suele denominar un dispositivo Winchester, que en este caso no es un
rifle sino un disco duro removible como lo es el Jaz.
Como dispositivo de este tipo, es tremendamente veloz: hasta 2 MB/s y menos de 20 ms de tiempo de
acceso para la versión SCSI, unas cifras muy por encima de lo que son capaces de conseguir el Zip y el
SuperDisk. A decir verdad, se trata de un producto excelente.
En fin, no hay mucho más que comentar: es un buen dispositivo, cómodo, transportable, asequible de
precio y capaz ya de realizar backups de un disco duro completo, aunque seguimos necesitando una cantidad de
discos considerable. Existe en versiones SCSI y para puerto paralelo, de las cuales recomendamos la SCSI, como
siempre, ya que la de puerto paralelo permite mayor transportabilidad pero limita la velocidad a la mitad.
Puesto que es un dispositivo interesante pero no muy conocido, vamos a hacer una excepción y dar un
par de teléfonos de distribuidores a través de los cuales probablemente pueda adquirirse el EZFlyer: Mitrol (91
518 04 95) y Sintronic (977 29 72 00
81
Dispositivos hasta 2 GB de capacidad
A estos dispositivos se les podría denominar multifuncionales; sirven tanto para guardar grandes
archivos o proyectos de forma organizada, como para realizar copias de seguridad del disco duro de forma
cómoda e incluso como sustitutos de un segundo disco duro... o en el caso extremo, incluso del primero.
No incluimos algunos dispositivos de cinta cuya capacidad les haría estar en este apartado, ya que
carecen de la versatilidad que hemos comentado, siendo fundamentalmente periféricos destinados a realizar
backups del disco entero.
Magneto-ópticos de 3,5" - 128 MB a 1,3 GB

Pros: alta seguridad de los datos, portabilidad, bajo precio de los discos, fácil manejo

Contras: inversión inicial, poca implantación
Se trata de dispositivos que aúnan lo mejor de ambas tecnologías para ofrecer un producto con un bajo
coste por MB almacenado, bastante rápido, con un soporte absolutamente transportable y sobre todo perdurable:
almacenan sus datos prácticamente para siempre, sin afectarles lo más mínimo los campos magnéticos (ni el
polvo, calor, humedad, etc, hasta un límite razonable), a la vez que le permite reescribir sus datos tantas veces
como quiera.
Son capaces de almacenar hasta 1,3 GB en discos muy similares a los disquetes de 3,5" (sí, así de
pequeños) que tienen una cubierta de plástico para protegerlos de los golpes y el polvo, no como los CDs con su
superficie expuesta a involuntarias huellas de dedos que los inutilicen.
Una vez instalada la unidad, se maneja como si fuera un disco duro más (sin necesidad de ningún
programa accesorio). Existen discos y lectores-grabadores de 128, 230, 540, 640 MB y 1,3 GB, pero en la
actualidad sólo son recomendables los de 640 MB y 1,3 GB (estos últimos algo caros), que además permiten leer
y escribir en los discos de menor capacidad (excepto en los de 128 MB, que generalmente sólo pueden ser
leídos). Ah, no son compatibles con esas antiguallas que son los disquetes normales de 1,44 MB, por supuesto.
Su velocidad es muy elevada, comparable a la de los discos duros de hace pocos años, pero tiene el
problema de que el proceso utilizado obliga a que la escritura se realice a la mitad de la velocidad de la lectura.
Así, mientras que se pueden alcanzar casi los 2,5 MB/s en lectura (una velocidad comparable a la de un CDROM 24x), la escritura se queda en alrededor de 1 MB/s, con un tiempo de acceso cercano al de un disco duro
(menos de 40 ms). Para subsanar este problema, Fujitsu (una de las empresas que más potencian este mercado) a
sacado unos nuevos modelos con tecnología LIMDOW (también conocida simplemente como OW, por
OverWrite) en los que se puede alcanzar más de 1,5 MB/s en escritura.
Lo malo de la tecnología OW es que además de una unidad lectora-grabadora reciente necesita discos
especiales, más caros que los normales; pero eso no es mucho problema, ya que los discos de 640 MB clásicos y
los OW menos del doble; incluso los Zip de 100 MB son más caros. Un precio ridículamente bajo, en mi
opinión, para un soporte que cabe en un bolsillo, es super resistente y en el que se puede escribir miles de veces a
una velocidad más del doble de rápida que en una grabadora de CDs 4x.
Sus únicos problemas son el precio y su relativamente escasa implantación. Aunque en ambientes
profesionales son bastante comunes, lo cierto es que no permiten copiar CDs ni juegos de PlayStation...
82
Grabadoras de CD-ROM - 650 MB

Pros: alta seguridad de los datos, compatibilidad, bajo precio de los discos

Contras: inversión inicial, capacidad y velocidad relativamente reducidas
Lo primero, hacer distinción entre grabadoras (aquellas que sólo permiten grabar la información una
vez, sin que luego se pueda volver a escribir en el CD) y regrabadoras (las que, utilizando los discos apropiados,
permiten grabarles numerosas veces, en teoría unas mil). De todas formas cada vez quedan menos grabadoras
que no sean también regrabadoras, pero conviene que se informe por si acaso, evidentemente no es lo mismo lo
uno que lo otro.
Las grabadoras son como lectores de CD-ROM pero que permiten grabar además de leer. ¿En cualquier
tipo de CD? No, en absoluto, para nada. Los CDs comerciales, de música o datos, son absolutamente
inalterables, lo cual es una de sus ventajas. Los CDs grabables son especiales y de dos tipos: CD-R (Recordable,
grabable una única vez), que cuestan unas 0.25€, y CD-RW (ReWritable, regrabable múltiples veces) por unas
0.50€.
El ridículo precio de los CDs grabables una única vez los hace idóneos para almacenar datos que son
poco o nada actualizados, así como para realizar pequeñas tiradas de software propio o "copias de seguridad" de
software comercial (en realidad para lo que suelen servir es para piratear software, para qué engañarnos). Los
regrabables sirven para realizar backups del disco duro o de la información más sensible a ser actualizada
constantemente.
Las características de esta tecnología determinan a la vez sus ventajas y sus principales problemas; los
CD-ROMs, aunque son perfectos para distribuir datos por estar inmensamente extendidos, nunca han sido un
prodigio de velocidad, y las grabadoras acentúan esta carencia. Si en los lectores de CD-ROM se habla como
mínimo de 24x (otra cosa es que eso sea mentira, en realidad la velocidad media pocas veces supera los 1,8
MB/s, los 12x), en estas unidades la grabación se realiza generalmente a 4x (600 Kb/s), aunque algunas
ofrecen ya 8x o más.
Pero alcanzar o superar 4x no siempre es posible, ojo, especialmente si la fuente de los datos es lenta o
inestable (como un lector de CD-ROM). Lo que es más, la lectura en el propio grabador no suele superar los 16x,
por lo que se suele usar un lector como complemento. Esto hace que, aunque el resultado es igualmente
invulnerable a campos magnéticos, humedad, etc, resulte mucho más práctico utilizar un dispositivo magnetoóptico si se desea velocidad, versatilidad y mayor resistencia y dejar las grabadoras de CD para copiar discos y
hacer copias de seguridad. Claro está que para piratear software resultan más prácticas, pero allá cada uno con su
conciencia...
Por lo demás, indicar que el resultado de la grabación en un disco grabable una única vez se puede leer
en cualquier lector no prehistórico (digamos un 2x), pero los discos regrabables dan más problemas, y no es raro
que fallen en lectores algo antiguos, por ejemplo 4x ó 6x, pero con lectores modernos no existen problemas.
Para realizar una grabación de cualquier tipo se recomienda poseer un equipo relativamente potente,
digamos un Pentium sobrado de RAM (al menos 32 MB). Para evitar quedarnos cortos (lo que puede impedir
llegar a grabar a 4x o estropear el CD por falta de continuidad de datos) podemos comprar una grabadora SCSI,
que dan un flujo de datos más estable, tener una fuente de datos (disco duro o CD-ROM) muy rápida, no grabar
directamente de CD-ROM a grabadora (mejor de CD-ROM a disco duro y luego a grabadora), comprar un
83
grabador con un gran buffer de memoria incorporado (más de 1MB) o asegurarnos de que la grabadora cumple la
norma IPW o mejor UDF, que facilitan la grabación fluida de datos sin errores.
Las unidades únicamente grabadoras están en proceso de extinción, ya que las regrabadoras cada vez
son más asequibles, unas 25.000 pts más IVA en versión IDE y unas 30.000 en versión SCSI.
Jaz (Iomega) - 1 GB ó 2 GB

Pros: capacidad muy elevada, velocidad, portabilidad

Contras: inversión inicial, no tan resistente como un magneto-óptico, cartuchos
relativamente caros
Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles de las de un disco
duro moderno: poco más de 5 MB/s y menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho Jaz
es internamente, a casi todos los efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se
encuentra en la unidad.
Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y velocidad, junto con
sus inconvenientes: información sensible a campos magnéticos, durabilidad limitada en el tiempo, relativa
fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de los discos Zip, podemos calificar este
soporte de duro y fiable, aunque la información nunca estará tan a salvo como si estuviera guardada en un
soporte óptico o magneto-óptico.
¿Aplicaciones? Almacenamiento masivo de datos que deben guardarse y recuperarse con la mayor
velocidad posible, lo cual lo hace ideal para la edición de vídeo digital (casi una hora en formato MPEG); en
general, sirve para lo mismo que los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje.
En cuanto a defectos y críticas, aparte de que los datos no duren "para siempre", sólo tiene un handicap:
el precio. La unidad lectora-grabadora de 1 GB vale una respetable cantidad de dinero, Sea como sea, es un
elemento profesional, no es apto como capricho... o al menos para caprichosos sin dinero.
Por cierto: la versión de 2 GB, completamente compatible con los cartuchos de 1 GB (pero no los
cartuchos de 2 GB con la unidad de 1 GB, mucho ojo), es algo más cara, por lo que quizá no tenga tanto interés.
Si necesita tanta capacidad por disco piense si no le merecerá más la pena algo menos rápido pero más fiable
como un magneto-óptico de 5,25", una inversión como ésta no se hace todos los días.
SyJet (SyQuest) - 1,5 GB

Pros: capacidad muy elevada, velocidad, portabilidad, precio de los cartuchos

Contras: inversión inicial, no tan resistente como un magneto-óptico
Tiene un 50% más de capacidad que el Jaz normal, la misma velocidad y un precio (al menos en
EEUU) idéntico al de éste, pero en nuestro país no lo conoce casi nadie. Será cosa del márketing ese, supongo.
Pues eso: casi idéntico al Jaz pero con cartuchos de 1,5 GB y una velocidad mínimamente inferior, de 5
MB/s y menos de 15 ms. Existe con todo tipo de interfaces: SCSI, EIDE e incluso puerto paralelo, pero por
supuesto no lo utilice con este último tipo de conector o la velocidad quedará reducida a un quinto de la indicada,
que corresponde a la SCSI (o a la EIDE en un ordenador potente y sin utilizar mucho el microprocesador, ya
sabe).
84
UNIDADES DE DISCO RIGIDO
Introducción
Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento secundario. Al disco
duro se le conoce con gran cantidad de denominaciones como disco duro, rígido (frente a los discos flexibles o
por su fabricación a base de una capa rígida de aluminio), fijo (por su situación en el ordenador de manera
permanente), winchester (por ser esta la primera marca de cabezas para disco duro). Estas denominaciones
aunque son las habituales no son exactas ya que existen discos de iguales prestaciones pero son flexibles, o bien
removibles o transportables, u otras marcas diferentes fabricantes de cabezas.
Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y grandes
ordenadores. Para conectar un disco duro a un ordenador es necesario disponer de una tarjeta controladora. La
velocidad de acceso depende en gran parte de la tecnología del propio disco duro y de la tarjeta controladora
asociada al discos duro.
Estos están compuestos por varios platos, es decir varios discos de material magnético montados sobre
un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las cabezas de
lectura/escritura que mediante un proceso electromagnético codifican / decodifican la información que han de
leer o escribir. La cabeza de lectura/escritura en un disco duro está muy cerca de la superficie, de forma que casi
vuela sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados
herméticamente, porque cualquier partícula de polvo puede dañarlos.
Unidades de disco
Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de
hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que
empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último). Asimismo estos
cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos
ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que
se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de
85
identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al
tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de
una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número,
siendo el 0 para la primera. En general su organización es igual a los disquetes. La capacidad del disco resulta de
multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de
bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de corriente, lo
cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de
la celda. Para leer, se mide la corriente inducida por el campo magnético de la celda. Es decir que al pasar sobre
una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en
esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una
corriente que provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o
en 1 dependiendo del valor del campo magnético provocado por dicha corriente.
Los componentes físicos de una unidad de disco duro son:
Es la parte de la unidad de disco que escribe y lee los
datos del disco. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que
detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la
electrónica de la unidad de disco.
Convencionalmente los discos duros están compuestos por varios platos, es decir varios
discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que
pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de
control.
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los
platos del disco.
Es el mecanismo que mueve las cabezas de lectura / escritura
radialmente a través de la superficie de los platos de la unidad de disco.
Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes
parámetros:
Es una pila tridimensional de pistas verticales de los múltiples platos. El número de
cilindros de un disco corresponde al número de posiciones diferentes en las cuales las cabezas de
lectura/escritura pueden moverse.
Es un grupo de sectores que es la unidad más pequeña de almacenamiento reconocida
por el DOS. Normalmente 4 sectores de 512 bytes constituyen un Cluster (racimo), y uno o más Cluster forman
una pista.
Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la
cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.
86
Es la unidad básica de almacenamiento de datos sobre discos duros. En la mayoría de los
discos duros los sectores son de 512 Bytes cada uno, cuatro sectores constituyen un Cluster.
Otros elementos a tener en cuenta en el funcionamiento de la unidad es el tiempo medio entre fallos,
MTBF
(Mean Time Between Failures), se mide en horas (15000, 20000, 30000..) y a mayor numero mas
fiabilidad del disco, ya que hay menor posibilidad de fallo de la unidad. Otro factor es el AUTOPARK o
aparcamiento automático de las cabezas, consiste en el posicionamiento de las cabezas en un lugar fuera del
alcance de la superficie del disco duro de manera automático al apagar el ordenador, esto evita posibles daños en
la superficie del disco duro cuando la unidad es sometida a vibraciones o golpes en un posible traslado.
Controladoras
El interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. El interface
define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, su
interface se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la
información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del
formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa
madre.
Se encuentran gobernados por una controladora y un determinado interface que puede ser:

ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s.
Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo (625k por
segundo con codificación MFM, y 984k por segundo con codificación RLL). Actualmente esta desfasado y
ya no hay modelos de disco duro con este tipo de interface.

ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un
valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse
este interface y es difícil de encontrar.

IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y
que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para
conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por segundo. En
principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial
de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la
desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un
conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el
standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de acceso a particiones
mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de
cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a
E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En
87
cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE
como referencia.
Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:

El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y
sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora
la unidad de disco.

El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección
de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la
unidad.
Debido a la dificultad que entraña la implementación de la compatibilidad LBA en BIOS, muchos de los
ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS.
El techo de la capacidad que permite las solución CHS se sitúa en los 8,4 Gb, que por el momento parecen
suficientes.

SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que
permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits
que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar
también de SCSI-2 que no es más que una versión actualizada y mejorada de este interface. Es el interface
con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras,
discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la
falta de un estándar verdaderamente sólido.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde
5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16
bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo
velocidades teóricas de hasta 40 Mbytes / seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador
realmente no suele ser mas que un adaptador principal para conectar el disco al PC. Como se puede ver unos son
interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre ambos es:

INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo
para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en
datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel
de dispositivo.

INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema
principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador
externo), SCSI e IDE son interfaces a nivel de sistema.
Distribución de la información: Grabación y acceso
Para grabar información en la superficie, se siguen una serie de códigos, que transforman un patrón de
bits en una secuencia de celdas con diferentes estados de magnetización.
Procesos de grabación
88

GCR (Group Coding Recording - Codificación de grupo de grabación) Es un proceso de
almacenamiento en el que los bits se empaquetan como grupos y son almacenados bajo un determinado
código. Es utilizado por los discos que utilizan codificación RLL.

ZBR (ZoneBit Recording) Es un proceso de almacenamiento que coloca más sectores sobre las
pistas exteriores del disco que son más largas, pero mantienen un valor constante de rotación. Esta diseñado
para colocar más datos sobre el disco, sólo puede usarse con interfaces inteligentes.
Proceso de Codificación

FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo para cada
uno , y el omitir el cambio de flujo para cada cero. Este procedimiento se puede realizar con una electrónica
de control relativamente simple, pero tiene el inconveniente de que cada bit de datos consume dos cambios
de flujo, limitando mucho la capacidad del disco.

MFM (Modified Frequency Modulation - Modulación de frecuencia modificada) Método de
codificación magnética de la información que crea una correspondencia 1 a 1 entre los bits de datos y
transiciones de flujo (cambios magnéticos) sobre un disco. Emplea una menor densidad de almacenamiento
y presenta una velocidad más baja de transferencia que el RLL.
Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit de datos es
almacenado sobre una región física lo suficientemente grande para contener 2 posibles posiciones 00, 01 ó 10.
Entre cada 2 bits de datos hay un bit que se llama de "reloj" y que se usa para validar las lecturas, así como para
sincronizarlas. Este bit hace que sea uno cuando está situado entre 2 bits de datos a cero y se hace cero cuando
está situado entre cualquier otra combinación de bits de datos. Así se hace imposible que se puedan leer más de 3
bits consecutivos con un valor de cero, o mas de un bit seguido a uno. Esto es cierto para todas las informaciones
almacenadas en el disco excepto para las áreas de control del mismo cuyas marcas de comienzo de pista, sector y
datos tienen 4 bits consecutivos a cero en su "adress mark". Evidentemente, estos sistemas, aunque fiables, son
unos grandes consumidores de espacio ya que emplean prácticamente la mitad del espacio en bits de reloj.

RLL: (Run Length Limited - Longitud recorrido limitado) Método de codificar la información
magnéticamente que usa GCR para almacenar bloques en vez de bits individuales de datos. Permite
densidades mayores de almacenamiento y velocidades mas altas de transferencia que MFM. En la práctica,
permite incrementar en un 50% la capacidad de un disco respecto al sistema de grabación MFM. Los
métodos de grabación RLL utilizan un conjunto complejo de reglas para determinar el patrón de pulsos para
cada bit basado en los valores de los bits precedentes. Este sistema se puede clasificar dependiendo de la
distancia máxima y mínima de silencios entre dos pulsos, por ejemplo; el RLL 2,7 tiene una distancia
mínima entre pulsos de 2 silencios y una máxima de 7.
Interleave, Track Skewing y Cyllinder Skewing
El Interleaving o espaciamiento es un método de distribuir los sectores del disco para compensar la
lentitud de transferencia de datos al procesador central. Con este sistema los sectores no son colocados
consecutivamente. Esta forma de espaciar los datos sobre la unidad de disco evita las rotaciones adicionales que
de otra manera serían necesarias para que la cabeza se colocará sobre los datos sucesivos. Con esto se consigue
que, después de un sector lógico pasen unos cuantos sectores adicionales por delante del cabezal, hasta que
89
aparezcan justo el buscado. El tiempo necesario para la rotación de una cabeza sobre los sectores siguientes se
emplea para mandar los datos al procesador o desde él en caso de una operación de escritura.
Esto se mide en el llamado factor de interleave, que designa la cantidad de sectores en el cual se han
desplazado los números de sector lógico con respecto a los números verdaderos (físicos). El número de vueltas
necesarias para leer la pista completa indica este factor, si hacen falta 3 vueltas para leer una pista entera tendrá
un factor de 3:1. Este factor ha ido bajando hasta el 1:1, esto es, los sectores están organizados consecutivamente
y el ordenador y el disco duro se encuentran sincronizados para leer todos los sectores de una pista de una sola
vez, con lo que velocidad y rendimiento son óptimos.
Una codificación adecuada de los números de sector lógicos no sale a cuenta referido a la lectura
secuencial de una pista. Ya que después de leer una pista, habitualmente sigue el acceso al siguiente cilindro.
Pero de eso se encarga ya el sistema operativo, que en su numeración de sectores primero pasa por todos los
diferentes cilindros de una pista, antes de cambiar al siguiente cilindro. Ya que el cambio de un cilindro a otro
sólo necesita una breve conmutación del cabezal correspondiente, mientras que el acceso a otra pista implica un
posicionamiento de brazo completo de lectura/escritura lo que consume mucho más tiempo.
A pesar de todo, incluso la conmutación del cabezal necesita algo de tiempo, en ese tiempo el disco
duro sigue girando. Si se acaba de leer el último sector de un cilindro, el primer sector del siguiente cilindro ya
ha pasado por debajo del cabezal, de modo que es necesaria casi una vuelta completa, antes de que pueda
realizarse el acceso.
90
Para evitar esto, también entre las pistas de un cilindro se realiza una especie de interleaving, que se
denomina CILINDER SKEWING. Los sectores en las diferentes pistas de un cilindro se desplazan de forma que,
a pesar de conmutar al siguiente cabezal, se pueda leer inmediatamente el primer sector de la primera pista del
siguiente cilindro
Aparte de esto, existe también el TRACK SKEWING, que trabajo según el mismo principio , pero tiene
en cuenta el tiempo que se necesita para mover el bazo completo hasta la siguiente pista.
Todos estos factores se ajustan durante el formateo de bajo nivel del disco duro, aunque algunos de
ellos puede ser modificado con posterioridad.
Datos de control del disco
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan
determinados sectores que son defectuosos.
En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco.
En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las
direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del
disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se
guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco
duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene
importancia.
Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son
datos, existen zonas donde se almacena información de control.
Entre la información que se encuentran dentro de un sector:
.
91
También existen pistas extra donde se recogen otras informaciones como:
Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la
sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL.
Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.
Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la
superficie con datos ante vibraciones o golpes de la unidad.
Tiempos de acceso, velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios
conocer para comprender su funcionamiento y sus diferencias.

Tiempo de búsqueda de pista a pista : intervalo de tiempo necesario para desplazar la cabeza
de lectura y escritura desde una pista a otra adyacente.

Tiempo medio de acceso : tiempo que tarda, como media, para desplazarse la cabeza a la
posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario
para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110
milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486
y Pentium ó usan discos de menos de 20 milisegundos.

Velocidad de Rotación: Número de vueltas por minuto (r.p.m) que da el disco.

Latencia Promedio : Es el promedio de tiempo para que el disco una vez en la pista correcta
encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de
transferencia : velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central.
Depende esencialmente de dos factores : la velocidad de rotación y la densidad de almacenamiento de los
datos en una pista
3600 r.p.m = 1 revolución cada 60/3600 segundos (16,66 milisegundos)
Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos
Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados anteriormente
sería:
T.Pista
T.MAcceso
Rotación
Latencia
V.Transfrencia
FD 360k
6-12 mls
93 mls
300 r.p.m
100 mls
125-250 Kb / seg
HD AT 30
8-10 mls
40-28 mls
3600 r.p.m
8,3 mls
1-5 Mb / seg
El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por
pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la velocidad y la
precisión de los engranajes del cabezal. La latencia depende de la velocidad de rotación y equivale a la mitad
del tiempo que tarda el disco en describir un giro completo. El rendimiento total también depende de la
disposición de los dominios magnéticos, uso de ZBR.
92
Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o velocidad de
eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600 r.p.m, la latencia resultante
era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400 r.p.m (un 50% más
rápidas) y por tanto su latencia es de 5,6 milisegundos. Algunos discos siguen usando los 3600 r.p.m para
consumir menos energía.
RPM
Latencia
1 Vuelta cada
3600
16,66 mseg.
8,33 mseg.
4500
13,33 mseg.
6,66 mseg.
5400
11,11 mseg.
5,55 mseg.
7200
8,33 mseg.
4,16 mseg.
10000
6,00 mseg.
3,00 mseg.
El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta velocidad
la disipación del calor se concierte en un problema. El segundo es que exige a usar nuevos motores articulados
pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una
reducción drástica de fiabilidad, se quemarían demasiado rápido.
Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen
una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos
entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto
es la del uso de memorias intermedias, buffers o cachés.

Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que
almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta
se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving.

Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a
través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y
consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en
un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y
aumentar la velocidad.
Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de
ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:

Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes
puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de
transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr
transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que
actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes /
seg.
93

Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más
rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los
datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los
accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.

DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La
ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias
de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2
Mb. por segundo.

Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora
del bus y transfiere los datos con la ayuda de un controlador Bus Master DMA con control propio. Así se
pueden alcanzar velocidades de 8 a 16 Mb. por segundo.
Ultimas tecnologías y tendencias
La aceleración del los nuevos disco IDE se basan en dos métodos:

Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA " Canal de e/s
preparado" se acelera el control PIO. Gracias al control de flujo, la parte electrónica de la unidad de disco
puede regular las funciones de transferencia de datos del microprocesador, y el disco duro puede
comunicarse con el bus a mayor velocidad de manera fiable. El standard PIO modo 3 tiene una transferencia
teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5
promete hasta 33 Mbytes / seg.

El otro método alternativo denominado FAST Multiword DMA con el controlador DMA
(acceso directo a memoria) sustituye al procesador en el gobierno de las transferencias de datos entre el
disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte velocidades
internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en modo 3.
Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas tecnologías y
campos científicos (mecánica cuántica, aerodinámica, y elevadas velocidades de rotación). La combinación de
estas tecnologías permite que la capacidad de los discos duros aumente cerca de un 60 % cada año; cada cinco
años se multiplica por diez su capacidad. Los analistas esperan que este ritmo de crecimiento no se mantenga
hasta finales de siglo.
Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la superficie del disco. Los
cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean éstos mayor densidad de
datos posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será la probabilidad de colisión
con la superficie. Una solución es recubrir el plato con materiales protectores, rediseñar las características
aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por los cabezales exige
perfeccionar los componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada .
Además no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento
normales. Y todo esto a un precio competitivo.
Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos
materiales. Usa cabezales con mejor relación señal /ruido que los de tipo inductivo, separando los de lectura de
94
los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la densidad de almacenamiento.
Además son menos sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus
inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se
investiga en una mejora llamada GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica
cuántica.
Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los platos
con materiales antiadherentes derivados del carbono. Esto junto con las técnicas de cabezales de grabación en
proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los cabezales hasta
incluso entrar ocasionalmente en contacto con la superficie del plato.
A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal
respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se necesita una
preparación especial de la superficie del plato.
Estructura lógica de los discos duros
Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes
funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.
En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos.
Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo del Ms-Dos, sería la
siguiente:
Sector de Arranque.
Primera tabla de localización de archivos (FAT).
Una o más copias de la FAT.
Directorio Raíz (eventualmente con etiqueta de volumen).
Zona de datos para archivos y subdirectorios.
Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte
acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y
subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y
zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente

El Sector de Arranque : Al formatear un volumen, el sector de arranque se crea siempre
como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información
acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual
se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT).

La Tabla de Asignación de Ficheros (File Allocation Table) (FAT) : Si el DOS quiere crear
nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente
quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con
un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos
grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras
95
versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una
capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de
capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de
65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de
almacenar Gigas de información.

Una o más copias de la FAT : El DOS permite a un programa de formateo crear no sólo una,
sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la
FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar
archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus
copias, para evitar la pérdida de datos.

El directorio Raíz : La cantidad máxima de entradas en el directorio raíz se limita por su
tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos
estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del
tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al
volumen.

La Zona de Datos : Es la parte del disco duro en la que se almacena los datos de un archivo.
Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el
sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un
archivo.
Ventajas e inconvenientes frente a otros dispositivos de almacenamiento
Floppys (Disquetes):


Ventajas:

Bajo costo de fabricación.

Standarización de los formatos; número de cabezas, sectores, cilindros.

Es extraíble y compatibilidad.
Inconvenientes:

Poca fiabilidad de los datos almacenadas.

Una escasa capacidad de almacenamiento.
Unidades de CD-ROM:


Ventajas:

Velocidad de lectura similar a los Discos Duros.

Gran capacidad a muy bajo coste.

La cabeza lectora no va incorporada en el disco.
Inconvenientes:

Es de sólo lectura.

El disco únicamente reescribible una sola vez.

El disco de CD-ROM no lleva los cabezales de lectura / escritura incorporados.
Streamers (Unidades de Cinta):

Ventajas:
96


Seguridad en la grabación de los datos.

Gran capacidad a bajo coste.
Inconvenientes:

Los Discos duros son mucho más rápidos en lectura / escritura, ya que la cinta realiza
una lectura secuencia, mientras que la cabeza lectura de los discos duros se posiciona en cualquier parte
la superficie en tiempos casi despreciable
Memoria RAM:

Ventajas:


Mayor rapidez que los discos duros.
Inconvenientes:

Elevado coste en relación a su capacidad.

La información contenida en la memoria es volátil, mientras que el almacenamiento
en discos duros es estática.

La memoria de un ordenador es 100 veces menor que la capacidad de los discos duros.
Papel:


Ventajas:

Portabilidad.

Suele deteriorarse con más facilidad que un disco duro.
Inconvenientes:

No es ecológico,

Las búsquedas son machismo más lentas.

El elevado coste en comparación con la capacidad de las páginas de textos,
documentos, etc. que es capaz de almacenar un disco duro.
Recientemente (24/03/2006) 4 empresas españolas inician un proyecto conjunto de reciclaje de CD y
DVD, las empresas vascas Sarbide, Haizelan Besaide S., Recycling Plast, y el Centro Tecnológico GAIKER-IK4
han comenzado ha desarrollar un proyecto para reciclar soportes de almacenamiento óptico (CD, CD-R y DVD).
"Se trata de un proyecto muy novedoso ya que, por primera vez, se contempla el reciclaje de residuos
post-consumo", informó el viernes la Sociedad General de Autores y Editores (SGAE), en un comunicado. Se
trata de un proyecto de I+D muy innovador, en el que se potenciará el reciclado y la posterior reutilización del
material que compone los soportes, el policarbonato.
El programa, que cuenta con una subvención del ministerio de Medio Ambiente, tendrá una duración de
dos años, y las empresas participantes en el mismo ya han comenzado una campaña de recogida selectiva en
Vizcaya, aunque durante el año pasado ya comenzaron varias experiencias piloto en territorio vasco.
Cada año se producen a nivel mundial 36.000 millones de soportes de almacenamiento, entre CD, DVD
y CD-R, y en España son producidas cada año un total 390 millones. Estos datos abren un mercado de enorme
potencial para el reciclaje de estos productos, que aunque se consideran residuos inertes y por lo tanto no son
tóxicos ni peligrosos, su reutilización es positiva al ser una materia prima potencialmente reciclable. La campaña
de concienciación contará con varios elementos, como la mascota de la campaña (una simpática canguro llamada
97
CEDERIKA), un tríptico explicativo, un DVD multimedia, una página web y un contenedor de recogida
específico que se ubicará en las empresas adheridas.
Toshiba presenta al sucesor del DVD (22/02/2006)
Ya está lista para salir al mercado la nueva generación de reproductores de "DVDs". Un nuevo formato
de alta definición que acaba de presentar Toshiba y, por supuesto, será totalmente incompatible con la propuesta
de Sony, el otro gran fabricante. Sólo uno de los dos conseguirá triunfar.
La siguiente generación de DVD llegará a los comercios en Abril, al menos la ideada por la
multinacional Toshiba, denominada HD DVD. Sin embargo, las primeras películas en este nuevo formato de
DVD no llegarán hasta el verano. Los primeros reproductores de DVD compatibles con el nuevo estándar
llegarán al mercado aprovechando las fiestas navideñas. Y para tener en las manos los primeros grabadores
habrá que esperar hasta 2007.
La nueva tecnología desarrollada por Toshiba, que ha sido aprobada como un estándar por el DVD
Fórum, además de ofrecer mejor calidad de imagen y sonido, incrementa la capacidad de almacenamiento por
tres (hay disco de una capa de 15 Gb y de dos capas de 30 Gb, y lanzarán en cuanto se aprueben otros de tres
capas de 45 Gb).
La compañía prevé que en tres años esta tecnología esté totalmente extendida. Su mejor baza para la
transición, en comparación con su contrincante en la guerra por este mercado, que es Sony con el Blue Ray Disc
(sus discos almacenan entre 25 Gb y 50 Gb), es que el nuevo formato es compatible con los actuales DVD, esto
es, que las películas antiguas que el usuario tenga en su casa van a poder verse en los nuevos reproductores
preparados para esta nueva generación de DVD.
Los discos de HD DVD no podrán verse en los reproductores actuales. El precio, tanto de los
dispositivos como de los discos, será similar al de los actuales y en marzo verán la luz los primeros
reproductores domésticos de HD DVD. "Nosotros apostamos por la convergencia digital con la integración del
ordenador portátil y la televisión" dijo este martes Javier Pascual, presidente de Toshiba en España.
98
6.- DISPOSITIVOS DE ALMACENAMIENTO: MEMORIAS RAM. ASPECTOS TECNOLÓGICOS
TECNOLOGÍAS DE FABRICACIÓN DE MEMORIAS RAM. ASPECTOS TECNOLÓGICOS.
1.- Tecnologías.
Existen muchas tecnologías de memoria RAM, pero pueden resumirse en dos grandes
grupos: Memorias RAM estáticas (SRAM) y dinámicas (DRAM). Ambas pueden escribirse y leerse
repetidamente, y ambos tipos pierden su contenido cuando se apaga el sistema. Sin embargo, las dinámicas
tienen la característica adicional de que deben ser "refrescadas" constantemente; esto significa que una vez
escrita en ellas la información, la pierden rápidamente, por lo que debe utilizarse un sistema (de refresco) que
lea el contenido y vuelva a escribirlo. Este proceso se repite constante y automáticamente durante el
funcionamiento del ordenador. Por contra, las estáticas conservan su contenido indefinidamente (mientras se
mantenga la alimentación de energía), por lo que solo deben ser reescritas nuevamente cuando se desee cambiar
su contenido.
2.- DRAM
Este tipo de memoria es el más ampliamente utilizado en los PCs actuales. Tiene la característica de
ser de fácil construcción (resulta económica) y muy compacta (muchos bits en poco espacio), aunque con el
inconveniente de que debe ser "refrescada" constantemente y de que es comparativamente lenta (esta lentitud es
lo que ha motivado la aparición de memorias cache mucho más rápidas). Su velocidad de acceso es del orden
de 60 ns.
Nota: Actualmente (2001) existen módulos DRAM de 256 Mbits, lo que significa que existen chips con 256
millones de transistores, mucha más cantidad que los contenidos en un Pentium. Aunque hay que significar que
la DRAM es una estructura regular y repetitiva que no puede ser comparada con la complejidad de un
procesador.
La DRAM está constituida por conjuntos de transistor-condensador; el estado cargado/descargado de
este condensador representa los bits individuales 1 o un 0. La volatilidad se debe precisamente a que los
condensadores tienden a perder la carga.
En los sistemas PC, existe un controlador especial de memoria, alojado en el chipset de la placa base,
que refresca el contenido de la memoria cada 15 µs (microsegundos) [1]. Este refresco supone la ocupación de
varios ciclos de la UCP. En los sistemas antiguos, este trabajo de actualización suponía una parte importante
del trabajo que era capaz de desarrollar el procesador, pero en los sistemas modernos (mucho más capaces) esta
función supone apenas un 1% de la carga de trabajo de la UCP.
En algunas placas-base la frecuencia de refresco puede ser alterada, pero no conviene rebajarla porque
se corre el riesgo de que alguno de los millones de condensadores pierda la carga. Además, una disminución
del 1% del trabajo del procesador no supone desde luego una ventaja que compense el riesgo de corromper los
datos.
3.- SRAM
La memoria estática mejora algunos de los inconvenientes de la dinámica pero añade otros. Este tipo
de memoria está formada por conjuntos de 6 transistores por cada bit; lo que origina que mientras exista
alimentación no pierde su contenido, además es muy rápida, pero por contra es comparativamente más
voluminosa que la DRAM y mucho más cara.
99
En términos de velocidad, la SRAM tiene una velocidad de acceso comparable a la de los registros del
procesador, es decir, más rápida que la DRAM. Actualmente (2001) estas memorias SRAM tienen tiempos de
acceso del orden de 2 a 15 ns o menos. En cambio su empaquetamiento es menos denso; la SRAM es hasta 30
veces más grande que una DRAM equiparable y consecuentemente más costosa.
4.- EDO
La memoria EDO ("Extended Data Output") es una innovación reciente (1995) en la tecnología de la
DRAM. Permite a la UCP tener acceso a la memoria un 10 o 15% más rápido que en los chips comparables.
5.- Rambus
La memoria Rambus RDRAM.
6.- DDR-SDRAM
La memoria DDR-SDRAM ("Double Data Rate-Synchronous DRAM"), también denominada
SDRAM II, es una variedad de memoria RAM síncrona dinámica, que soporta transferencia de datos en ambos
flacos del ciclo de reloj, por lo que dobla el rendimiento de las memorias convencionales (que solo utilizan un
flanco de cada ciclo para las transferencias). Además este tipo de memoria consume menos energía, lo que la
hace especialmente indicada para equipos portátiles.
Nota: La memoria DRAM síncrona SDRAM, es una nueva tecnología de RAM dinámica que utiliza un reloj
para sincronizar la entrada y salida de señales en los chips de memoria. El reloj está sincronizado con el del
sistema, de forma que la UCP y la memoria están sincronizadas. Esto hace que la DRAM sincróna ahorre
tiempo al ejecutar comandos y transmitir datos.
6.1.- La pugna Rambus <> DDR.
Aunque esta tecnología fue anunciada hace algunos años, sin embargo pasó cierto tiempo antes que
aparecieran las primeras unidades disponibles comercialmente. La razón principal para este largo retraso ha
sido la posición casi monopolística de la compañía Intel en el mercado de las placas-base y de los chipsets.
Intel había anunciado hace dos años que las futuras memorias de alto rendimiento no serían las DDR-SDRAM,
sino el tipo Rambus (RDRAM). Entonces parecía que la DDR-SDRAM nunca aparecería como memoria
principal en los PCs porque los productos no soportados por los procesadores Intel morían en un corto periodo
de tiempo.
A pesar de todas las cosas fueron por otro camino, y la tecnología Rambus no ha sido capaz de detener
la DDR-SDRAM. El maridaje con Rambus por parte de Intel inició un largo periodo de fallos en esta
compañía. Además, el máximo competidor de Intel, la compañía AMD, inició por este tiempo el desarrollo de
su arquitectura K-7, hoy conocida como Athlon y Duron, que han sido recibidos muy positivamente por el
mercado. AMD ganó cuota de mercado mientras Intel la perdía. El fabricante Taiwanés de chipset VIA
technologies se benefició también de la política Rambus de Intel, y finalmente se dispuso de todo el soporte
necesario para el lanzamiento exitoso de la tecnología DDR-SDRAM. Intel ha tenido que admitir que algunos
productos pueden tener éxito comercial incluso sin su bendición. Actualmente Intel ha anunciado su ruptura
con Rambus y sabemos que pronto habrá chipsets Intel con soporte para DDR-SDRAM.
6.2.- Especificación DDR
El principio básico de DDR-SDRAM es muy simple (aunque su realización práctica sea un poco más
complicada). Los nuevos módulos de memoria utilizan la misma velocidad de reloj que la SDRAM normal,
pero son capaces de manejar el doble de datos porque utilizan ambos flancos del ciclo de reloj para las
100
transferencias. Por esta razón su denominación suele contener un número que es el doble de la velocidad de bus
para la que es adecuada. Por ejemplo, la DDR400 puede efectuar 400 millones de transferencias por segundo
en un bus a 200 MHz, con lo que su ancho de banda equivaldría al de una SDRAM normal en un bus de 400
MHz...
Esta tecnología ya era conocida de antes, ya que AGP2x y JDEC están ya trabajando con la
especificación DDR II, que pueden duplicar una vez más la velocidad de transferencia utilizando la tecnología
cuádruple conocida en AGP4x o en el bus Pentium 4, pero DDR-SDRAM presenta otra mejora importante
sobre la SDRAM PC133; utiliza una tensión de alimentación de 2.5 V. en lugar de los 3.3 usuales de las placasbase modernas. Esto, unido a las capacidades más bajas en el interior de los chips de memoria, conduce a una
reducción significativa en el consumo energético, lo que hace a la DDR-SDRAM muy atractiva para el mercado
de portátiles.
La última tendencia (2004) es la especificación SDRAM PC3200, que permite utilizar una tecnología
denominada de doble canal. Los procesadores que la soportan pueden transferir datos al cuádruple de la
velocidad del reloj del bus. Se considera ideal que la memoria pueda soportar esta velocidad porque esto
descarga el trabajo del chipset de control, pero como actualmente las memorias solo permiten transferencias al
doble de la velocidad del bus, la tecnología de doble canal permite utilizar dos módulos estándar de 64 bits que
trabajan en paralelo dentro de un canal de 128 bits, lo que permite alcanzar una velocidad efectiva de 4
transferencias por ciclo de reloj.
[1] El controlador de memoria realiza el refresco por zonas, pero de forma que la totalidad de la memoria
queda dividida en 128 zonas, por lo que toda la memoria ha sido renovada después de 128 ciclos de refresco
parcial, es decir, el refresco de cada bit queda garantizado cada 1.92 milisegundos ( 15 · 10-6 · 128 = 1.92 · 103 s).
7.- Memorias- Antecedentes de fabricación.
Al tratar de la placa-base, indicamos que el término "memoria" se refiere desde luego a cualquier
dispositivo capaz de almacenar datos, pero aplicado a un ordenador actual es ambiguo, ya que existen varias
clases. En principio, pueden clasificarse en dos grandes grupos: Internas y externas (también denominadas
primarias y secundarias).
Las memorias internas están situadas en el procesador, la placa base, o en tarjetas insertas en zócalos
de esta. Genéricamente se conocen como memoria RAM ("Random Access Memory") por su forma de acceso.
Su característica principal es que pierden su contenido al apagar el ordenador (es una forma de almacenamiento
volátil), aunque hay que matizar que la ROM ("Read Only Memory") no pierde su contenido y sin embargo
también puede ser accedida de forma aleatoria.
Como el resto de las tecnologías informáticas, la memoria ha experimentado un notable desarrollo a lo
largo de los años. Refiriéndose al IBM PC, en 1993 Peter Norton escribía: "IBM ha equipado a todos los XT
con lo que se considera ser un equipo mínimo para un ordenador personal. Ahora el disco duro de 10 MB y los
128 KB de memoria representan la configuración mínima para una máquina".
En términos absolutos la cantidad de memoria instalada en los sistemas ha aumentado
espectacularmente, pero una cosa es cierta: Tanto los Sistemas Operativos como las aplicaciones añaden día a
día nuevas funcionalidades y perfeccionamientos que los han convertido en consumidores insaciables de
memoria.
7.1.- Aspectos funcionales
101
La memoria interna (RAM) funciona como apoyo de los registros del procesador. Cualquier programa
en ejecución está alojado en memoria; las instrucciones van siendo pasadas a los registros para su ejecución de
forma secuencial, los datos también son pasados a los registros para su manipulación.
Puesto que se trata de un almacenamiento volátil, cualquier dato almacenado en memoria debe ser
salvado a un almacenamiento permanente (disco) antes de apagar el sistema.
La forma en que se utiliza la memoria depende del SO utilizado. Los sistemas tipo MS-DOS tienen
una disposición "Mapeado" relativamente complicada, lo que es debido a la pequeña cantidad de memoria que
podía ser direccionada por los primeros equipos (1 MB para el 8088). Actualmente el problema ha
desaparecido parcialmente, ya que a partir del 80286 los PCs podían direccionar 16 MB; cantidad que fue
creciendo paulatinamente a 4 GB para el 80386 y que actualmente llega a 64 GB en los modernos procesadores
tipo Pentium.
La memoria RAM (de acceso aleatorio) está constituida por dos tipos de memoria, la ROM y la RAM
volátil. Ambas se pueden acceder (leer) de forma aleatoria, pero la primera es de solo lectura (no se puede
escribir en ella) y no volátil. En el PC la memoria ROM se utiliza exclusivamente para contener los programas
y datos que constituyen el BIOS (
H4). En lo que sigue nos referimos exclusivamente a la memoria RAM
volátil, a la que denominamos memoria principal.
7.2.- Velocidad de acceso
Un punto importante de las memorias es la rapidez con que pueden ser leídas o escritas, lo que se
conoce como velocidad de acceso o ciclo de lectura/escritura. Esta velocidad se mide por el tiempo que se
necesita en dichas operaciones, y puede ser expresado en unidades de tiempo (segundos) o en términos de
frecuencia (hercios). La equivalencia es posible porque esta última medida se refiere al tiempo de un ciclo. Por
ejemplo, una velocidad de acceso de 16.7 MHz supone que puede realizarse 16.7 Millones de veces cada
segundo, lo que supone un tiempo de 1/16.7 · 10-6 = 59.88 · 10-9 ~ 60 ns.
Actualmente se comercializan memorias conocidas como PC100 y PC133, lo que significa que sus
velocidades de acceso son de 100 y 133 MHz respectivamente (equivalentes a 10 y 7.5 ns).
La disposición eléctrica de los bits que componen la memoria es en agrupaciones de 8 (octetos) y en
una disposición de matriz de filas y columnas; esta disposición se conoce como paginación, y hace que el ciclo
de lectura/escritura se desglose en dos partes: El tiempo de acceder a la fila/columna donde está la posición de
memoria, denominado latencia (o estado de espera), y el tiempo de transferencia de datos propiamente dicho.
Por ejemplo, de los 60 ns necesitados para el acceso a una RAM típica, aproximadamente 25 ns se consumen en
el acceso (latencia), y 35 en la transferencia de datos.
Es corriente que el tiempo de latencia se especifique en términos de ciclos del sistema. Por ejemplo,
una latencia 5 en una placa que corre a 66 MHz significa 5 · 1/66 · 10-6 = 75 · 10-9 s = 75 ns.
7.3.- Paginación rápida
Como hemos señalado, la latencia necesita su tiempo para acceder a la fila y columna adecuada. Para
acortar este tiempo se utiliza una técnica denominada paginación rápida FPM ("Fast Page Mode"), que permite
acceder más rápidamente a los datos siempre que el próximo esté en la misma fila, y solo sea necesario cambiar
la columna.
7.4.- Acceso a ráfaga
102
Teniendo en cuenta que muchos accesos a memoria son secuenciales, es decir, se acceden datos de
posición consecutiva, se ideó el acceso en ráfaga ("burst mode"), que aprovecha las características de la
paginación rápida para acceder a bytes sucesivos en ráfagas; normalmente estos grupos se limitan a cuatro
accesos. Por ejemplo, un acceso normal a DRAM de 60 ns se accede en modo ráfaga 5-3-3-3. Significa el
acceso al primer byte se realiza en 5 ciclos, mientras que los 3 sucesivos solo necesitan 3 cada uno.
7.5.- Tensión de trabajo
Tradicionalmente los circuitos instalados en la placa-base, incluida la memoria, han trabajado a 5 V.
El aumento de la densidad de integración ha permitido aumentar la velocidad (frecuencia) de funcionamiento,
especialmente en los procesadores, que pueden funcionar a diversas tensiones. En las placas-base y sus
componentes asociados, el nuevo estándar es de 3.3 V, de forma que las memorias de los nuevos equipos suelen
utilizar esta tensión. Por su parte las nuevas memorias DDR-SDRAM funcionan a una tensión de 2.5 V.
Nota: En el caso de reparaciones o ampliaciones de equipos antiguos es conveniente cerciorarse de la tensión de
funcionamiento de la placa. Los módulos DIMM disponen de una muesca especial (guía de voltaje), que cuya
posición es ligeramente distinto en los módulos de 5 y 3.3 V. por lo que es físicamente imposible colocar
módulos de tensión incorrecta en el zócalo.
8.- Webografía

Kingston Technology, un fabricante de memorias con información sobre las últimas tecnologías.
http://www.kingston.com.

Newer RAM http://www.newerram.com , un proveedor de memorias; la página tiene un localizador de
memorias por modelo y fabricante.

Página de microelectrónica de IBM http://www-3.ibm.com/chips/products/memory/. Gran cantidad de
información sobre memorias (y otros productos).

Sánchez Serna, César. Villena Roblizo, Mª Dolores (2003). “Programación de tecnología. Curso 20032004. ” Curso 2003-2004. Elda: Cefire. En Internet: http://cefirelda.infoville.net.
103
7.- ORDENADORES CUÁNTICOS Y NUEVAS TECNOLOGÍAS
A mediados de los años 40 comenzaron a aparecer los primeros ordenadores. Aquellos primeros
artefactos eran muy lentos y ocupaban varias habitaciones llenas de armarios. Cincuenta años después hemos
llegado a construir ordenadores portátiles con el tamaño de un bloc de notas que superan con creces la potencia
de aquellos gigantes. Pero aun así, la carrera por la miniaturización continua y el siguiente paso hacia el que nos
movemos es la construcción de ordenadores cuyas piezas sean átomos o moléculas: los ordenadores cuánticos o
moleculares.
De las Válvulas de Vacío a los Ordenadores Actuales.
Los ordenadores primigénios estaban construidos con válvulas de vacío, iguales a las que tenían las
radios antiguas. En la actualidad las válvulas han sido sustituidas por elementos de un tamaño mucho menor: los
transistores que conforman los chips de silicio. Estos son cada vez mas pequeños habiéndose conseguido
actualmente un tamaño unas 800 veces más pequeño que el grosor de un cabello humano (0.13 micras).
En 1946 apareció el que podemos catalogar como el primer ordenador, el ENIAC. Este supercomputador
basado en válvulas ocupaba unos 160 metros cuadrados, pesaba 30 toneladas y podía almacenar sólo 20 números
de 10 dígitos cada uno. Además, su programación se hacia cambiando cables de manera manual.
Cualquier PC actual se programa de manera automática y tiene un tamaño mucho menor, además de
poseer una capacidad de cálculo extremadamente superior. Por ejemplo, ENIAC era capaz de procesar 5.000
operaciones por segundo mientras que cualquier PC actual realiza más de 100 millones. Por otro lado, en esta
carrera hemos conseguido que el tamaño de los microprocesadores no supere los 7 centímetros cuadrados,
sorprendente comparado con los 160 metros cuadrados que ocupaba ENIAC tan sólo 50 años antes.
La velocidad y el tamaño de los micros están íntimamente relacionadas ya que al ser los transistores más
pequeños, la distancia que tiene que recorrer la señal eléctrica es menor y se pueden hacer más rápidos. Al ser
los transistores cada vez más pequeños la cantidad de ellos contenidos en un microprocesador, y por
consiguiente su velocidad, se ha venido duplicando cada dos años. Pero los estudios revelan que este ritmo no se
puede mantener y que el límite será alcanzado tarde o temprano, ya que si se reduce más, las interferencias de un
transistor provocarían fallos en los transistores adyacentes.
Con el fin de superar estos límites de tamaño y velocidad se está trabajando en la actualidad en varios
centros de investigación de todo el mundo en dos líneas que pueden revolucionar el mundo de la informática:
Los ordenadores cuánticos y los ordenadores de ADN.
Los ordenadores cuánticos
Los ordenadores utilizan bits para codificar la información de modo que un bit puede tomar el valor cero
o uno. Por contra, los ordenadores cuánticos utilizan los qubits (bit cuántico)) para realizar esta tarea. Un qubit
almacena la información en el estado de un átomo, pero por las propiedades de los átomos hacen que el estado
no tenga porque ser cero o uno, sino que puede ser una mezcla de los dos a la vez. Así, al poder almacenar una
mezcla de ambos valores a la vez en cada qubit podemos tratar toda la información de una sola vez.
104
Gracias a estas propiedades los ordenadores cuánticos tienen una especial capacidad para resolver
problemas que necesitan un elevado número de cálculos en un tiempo muy pequeño. Además, como estarán
construidos con átomos, su tamaño será microscópico consiguiendo un nivel de miniaturización impensable en
los microprocesadores de silicio.
Por desgracia, en la actualidad aún no se ha llegado a construir ordenadores cuánticos que utilicen más
de dos o tres qubits. Aún así, hay un gran número de centros de investigación trabajando tanto a nivel teórico
como a nivel práctico en la construcción de ordenadores de este tipo y los avances son continuos. Entre los
principales centros destacan los laboratorios del centro de investigación de Almaden de IBM
(http://www.almaden.ibm.com/st/disciplines/quantuminfo), AT&T, Hewlett Packard en Palo Alto (California), el
Instituto Tecnológico de Massachusetts (MIT) y universidades de todo el mundo como la de Oxford
(http://www.qubit.org/) Standford, Berkeley, etcétera.
Computadoras de ADN
La computación molecular consiste en representar la información a procesar con moléculas orgánicas y
hacerlas reaccionar dentro de un tubo de ensayo para resolver un problema.
La primera experiencia en laboratorio se realizó en 1994 cuando se resolvió un problema matemático
medianamente complejo. Para ello se utilizó la estructura de moléculas de ADN para almacenar la información
de partida y se estudio las moléculas resultantes de las reacciones químicas para obtener la solución.
Por una parte, esta técnica aprovecha la facultad de las moléculas de reaccionar simultáneamente dentro
de un mismo tubo de ensayo tratando una cantidad de datos muy grande al mismo tiempo. Por otro lado, el
tamaño de las moléculas los sitúa a un tamaño equiparable al que se puede conseguir con los ordenadores
cuánticos. Otra ventaja importante es que la cantidad de información que se puede almacenar es sorprendente,
por ejemplo, en un centímetro cúbico se puede almacenar la información equivalente a un billón de CDs.
Si comparamos un hipotético computador molecular con un supercomputador actual vemos que el
tamaño, la velocidad de cálculo y la cantidad de información que se puede almacenar son en extremo mejorados.
La velocidad de cálculo alcanzada por un computador molecular puede ser un millón de veces más rápida y la
cantidad de información que puede almacenar en el mismo espacio es un billón de veces (1.000.000.000.000)
superior.
Aunque aún no se pueden construir ordenadores de este tipo, desde la primera experiencia práctica esta
área ha pasado a formar parte de los proyectos más serios como alternativa al silicio. Buena prueba de ello son
las investigaciones llevadas a cabo en el marco del DIMACS o "Centro de Matemática Discreta y Computación
Teórica"
(http://dimacs.rutgers.edu/)
del
cual
forman
parte
la
universidades
Princeton
(http://www.neci.nj.nec.com/), los laboratorios de AT&T, Bell entre otros. Otros focos de investigación son el
Departamento de Defensa de los Estados Unidos y el Consorcio Europeo de Computación Molecular
(http://www.tucs.fi/EMCC/) formado por un importante número de universidades.
Con décadas de innovaciones potenciales por delante, los diseños microelectronicos convencionales
dominarán el siglo próximo. Esta tendencia impulsa a los laboratorios a explorar una variedad de nuevas
tecnologías que podrían ser útiles en el diseño de nuevas computadoras y unidades de procesamiento. En algunos
105
casos estos avances contribuirán a obtener chips más diminutos, niveles inalcanzables a través de las técnicas
convencionales litográficas. Entre las tecnologías que se investigan en el presente, de cara al siglo XXI, se
encuentran las siguientes:
Cuántica de puntos y otras unidades de electrones simples la cuántica de puntos son “acuerdos moleculares
“que habilitan a los investigadores a circunscribir los electrones individuales y monitorear sus
movimientos. Estas unidades pueden, en teoría ser usadas como registro binarios en los cuales la
presencia o ausencia de un solo electrón se utiliza para representar los ceros y unos de los bits. En una
variante de este esquema, el rayo láser iluminado sobre los átomos podría producir el intercambio entre
sus estados electrónicos mínimos de energía y los de excitación con el fin de activar el valor de bit. Una
complicación de fabrica los transistores y cables extremadamente pequeños está dada cuando los efectos
mecánicos comienzan a interrumpir su función. Los componentes lógicos mantienen sus valores 1 y 0
menos confiables porque la ubicación de los electrones Individuales se vuelve difícil de especificar. Pero
aun
esta propiedad puede ser mejorada: los investigadores del MIT (Instituto Tecnológico de
Massachusetts) estudian en este momento, las posibilidades de desarrollar técnicas de computación
cuántica, que ayudarían a los sistemas informáticos a cumplir comportamientos no convencionales.
Computación molecular: en lugar de fabricar componentes de silicio, se investiga el desarrollo de
almacenamiento utilizando moléculas biológicas. Por ejemplo, se analiza el potencial computacional de
moléculas relacionadas con “bacteriorhodopsin”, un pigmento que altera su configuración cuando
reacciona a la luz. Una ventaja de este sistema molecular es que puede ser aplicado a una computadora
óptica, en la que los flujos de fotones tomarían el lugar de los electrones. Otra posibilidad es que muchas
de estas moléculas podrían ser sintetizadas por microorganismos, más que fabricados en plantas
industriales. De acuerdo con algunas estimaciones, los biomoléculas activadas fotónicamente pueden
vincularse en un sistema de memoria tridimensional que tendría una capacidad 300 veces mayor que los
actuales CD-ROMs
Puertas lógicas reversibles: como la densidad de los componentes de los chips crece, la disipación del calor
generado por los sistemas de microprocesamiento se volverá más dificultosa. Investigadores de Xerox e
IBM están testeando las posibilidades de retornar a los condensadores a sus estados originales al final de
los cálculos. Debido a que las puertas de acceso lógico podrían recapturar algo de la energía expulsada,
generarían menos pérdidas de calor.
Aún no está claro de que manera se las ingeniará la industria informática para crear transistores más delgados
y más rápidos en los años venideros. Por ejemplo, en la técnica fotolitográfica, la luz es empleada para
transferir patrones de circuitos de una máscara o plantilla de cuarzo a un chip de silicio. Ahora la
tecnología modela diseños de chips de alrededor de 0,35 micrones de ancho, pero achicar esta medida
parece imposible mientras se utilice la luz; las ondas luminosas son muy anchas. Muchas compañías han
invertido en la búsqueda de maneras de sustituir los más pequeños haces de luz por rayos X. De
cualquier manera, los rayos X aún no han resultado como método para masificar la producción de los
chips de última generación.
Las primeras computadoras allá por los años 50 ocupaban estancias enteras. Habitaciones invadidas de
tubos de vacío y válvulas. Las prestaciones del computador de a bordo de la nave Apolo XIII sacarían la sonrisa
106
en un novenario. A medida que han ido evolucionando los ordenadores, estos han ido multiplicando su velocidad
entre otras motivos porque han ido reduciendo su tamaño de manera vertiginosa. Pero toda técnica tiene un
límite. Los chips actuales contienen millones de componentes electrónicos. Están construidos con
nanotecnologías que permiten almacenar cientos de ellos en el espesor que ocupa un cabello. Uno de estos
componentes es el transistor, fabricado con silicio (semiconductor) y óxido de silicio, aislante de la electricidad.
Los ordenadores actuales procesan la información en forma de ceros y unos, según salga electricidad o no, de los
transistores. Con un conjunto de tres transistores tenemos ocho posibles combinaciones de ceros y unos, y el
sistema estará en uno de esos estados. Sin embargo, cuando los transistores empiezan a ser más y más pequeños,
del orden de unos pocos átomos, pierden sus propiedades. Así las cosas, se están buscando alternativas para
cuando se toque techo.
Una de las opciones que manejan los científicos, son los ordenadores cuánticos, sugeridos como una
posibilidad teórica por Richard Feynman, Nóbel de Física. Se han desarrollado programas específicos para estos
ordenadores que permiten, por ejemplo, buscar información en una base de datos, solo que en vez de indagar
verificando uno por uno todos los elementos de la base como en un PC convencional, un ordenador cuántico los
comprobaría todos a la vez.
Los ordenadores cuánticos almacenan la información en forma de qubits, que son estados cuánticos que
representan unos y ceros En un ordenador cuántico el cero y el uno podría corresponder al estado del spin de un
átomo o un electrón. Lo extraordinario es que el átomo puede encontrarse en una superposición de ambos
estados, es decir, se encuentra en situación 0 y 1 a la vez.
En la teoría cuántica, las partículas no poseen situaciones y velocidades bien definidas, tienen un estado
cuántico, una combinación de ubicación y celeridad que es imposible medir con absoluta precisión. La mecánica
cuántica no predice un único resultado de cada observación, predice una probabilidad de que la partícula se
encuentre en un estado cuántico, según su función de onda. De alguna manera se introduce un componente de
azar en el estado de las partículas. Es como si la partícula se pudiera encontrar en todas las posiciones, en todos
los estados cuánticos a la vez. Einstein cuya contribución fue decisiva al desarrollo de la mecánica cuántica y fue
recompensado por ello con el premio Nóbel en 1905, siempre se opuso a esta idea, y reflejó de esta guisa sus
sentires: “Jamás creeré que Dios juega a los dados con el universo”.
Paradójicamente Einstein fue uno de los precursores de la nueva física. En su tesis doctoral sobre el
efecto fotoeléctrico, Einstein proponía que la luz se comporta en ciertas circunstancias como si estuviera
compuesta por partículas (fotones). Sabemos que la luz procede en determinadas situaciones como una onda y se
advierte en manifestaciones tan cotidianas como el arco iris. Existe una dualidad onda-corpúsculo en la
naturaleza que queda plasmada en la formulación de la mecánica cuántica. Como consecuencia de esto se
observa el fenómeno de interferencia tanto de ondas como de partículas. Si dos ondas interfieren en fase, se
refuerzan, mientras que si lo hacen en oposición de fase pueden cancelarse. Lo extraordinario de este fenómeno
es que también se produce con partículas. En el experimento de la doble rendija de Young, hacemos pasar luz de
la misma longitud de onda (mismo color) a través de dos rendijas paralelas. Estas se comportaran como dos
fuentes monocromáticas. Al iluminar una pantalla, si la diferencia de los caminos ópticos es tal que las ondas
llegan en oposición de fase, estos dos surtidores de luz producirán oscuridad. El resultado es tal que sobre la
pantalla se forman un diagrama formado por franjas claras y oscuras.
107
Idéntico resultado se origina si en vez de iluminar la pantalla con luz monocromática, enviamos
electrones de la misma velocidad sobre ella. Habrá franjas donde incidan los electrones en mayor numero y
zonas de la pantalla donde no golpee ninguno. Vayamos más lejos, mandemos los electrones de uno en uno de
manera muy espaciada. El electrón pasará por una u otra rendija, pero seguiremos distinguiendo el mismo patrón
de interferencia. Sin embargo cerremos una rendija primero de tal manera que el electrón solo tenga un camino
posible. Los electrones impactan en la pantalla distribuyéndose sin que exista ningún tipo de interferencia.
Cerremos la otra rendija y notaremos un comportamiento similar. Solo si las dos rendijas están abiertas a la vez,
aunque el electrón pase por una de las dos rendijas (es una partícula) se percibe interferencia (se comporta como
una onda). Lo que está sucediendo aparentemente, es que el electrón atraviesa las dos rendijas a la vez. Una
partícula puede estar en varios sitios a la vez o estar permanecer en distintos estados cuánticos. Únicamente
cuando medimos su estado están en uno sólo de ellos.
La hipótesis cuántica describe el estado de los sistemas como una superposición de todos los estados
posibles. Esto da lugar a muchas paradojas, una de las más famosas es la del gato de Schrödinger. Éste propuso
introducir un gato en una caja cerrada, dentro de la cual se encontraba una cantidad de algún elemento radiactivo
que tenía una probabilidad de desintegrarse de un 50%. En la caja hay también un detector de desintegraciones.
Si alguno de los átomos se descompone, el contador activa un circuito que electrocuta al minino. De esta manera
el destino del gato está ligada al comportamiento de los átomos, gobernado por las leyes de la física
microscópica, Si se ha producido una desintegración el gato fallece y si no, el felino subsiste. Mientras la caja
permanezca cerrada y no hayamos comprobado el estado del gato, el bicho se encontrará en un estado que es la
superposición de los dos posibles, o sea, que está a la vez vivo y difunto.
Tal vez no tenga sentido preguntarse por la suerte del animal hasta no abrir la caja, pero mientras tanto
esta multiplicidad de estados puede convertir a los ordenadores cuánticos en portentos de potencia y, velocidad.
Si tres bits clásicos están en una de las ocho posibles combinaciones de ceros y unos, tres qbits están en los ocho
a la vez.
Concretar estas teorías en un artefacto físico es algo muy complicado. Los qubits son muy difíciles de
generar ya que cualquier perturbación (campos eléctricos, magnéticos, luz etc) harían que los qubits colapsasen
en un solo estado como los PCS convencionales. Uno de los problemas, por tanto sería resolver el problema
técnico de manipulación de los qbits.
Se han construido ordenadores cuánticos que contienen cuatro qubits; cuatro átomos dentro de una
molécula especialmente diseñada de manera que los spins de los núcleos interactúan entre si como qubits. Se
utiliza un campo magnético externo para alinear los núcleos atómicos en una dirección, significando un uno, o en
sentido contrario, interpretando un cero. De esta manera se consigue que los átomos se reúnan en un único
estado cuántico actuando sincronizadamente. Se han conseguido logros prometedores; se ha operado la suma 1
más 1, ejercicio nada trivial en este caso, y aunque se esté todavía en la infancia de la cibernética cuántica es
posible que se halle en el buen camino.
Tal vez la mejor interpretación de los fenómenos tratados la expresase Werner Heisenberg (1901-1976)
Físico alemán, autor del principio de incertidumbre (uno de los fundamentos cuánticos): Todas las cualidades
del átomo de la física moderna, que sólo puede simbolizarse mediante una ecuación en derivadas parciales en
un espacio abstracto multidimensional, son inferidas; no se le puede atribuir directamente propiedad material
108
alguna. Así pues, cualquier representación suya que pueda crear nuestra imaginación es intrínsecamente
deficiente; la comprensión del mundo atómico de ese modo primario y sensorial... es imposible
Cómo funciona un ordenador cuántico
En un ordenador tradicional la información se guarda y procesa en bits, que pueden valer 1 o 0. Lo
importante es que un bit o bien vale 1 o bien vale 0, estas son todas las posibilidades. En un ordenador cuántico
la información se guarda y se procesa en qubits (del inglés quantum bits). Un qubit es un bit que se encuentra en
una superposición de estados, de forma que, entre comillas, "puede valer 1 y 0 a la vez". Dicho con otras
palabras, un bit es a un gato lo que un qubit es al gato de Schrödinger antes de abrir la caja.
En un ordenador tradicional los bits se representan con voltajes; por ejemplo, un chip puede estar
diseñado para que todo voltaje entre 0 y 2 voltios represente un 0, y entre 4 y 6 voltios represente un 1. Los bits
se guardan en memorias formadas por circuitos diseñados para mantener estables dos voltajes, digamos 1 y 5
voltios, de forma que puedan "recordar" ceros y unos. Los bits se copian "mandando voltajes" por cables. Se
opera con los bits en unos circuitos llamados puertas lógicas. Los detalles de exactamente cómo funcionan todas
estas cosas no son demasiado importantes; en los años 40 se usaban válvulas de vacío, luego vinieron los
transistores, los circuitos integrados y los microchips, y sin embargo los ordenadores no cambiaron
esencialmente.
Los ordenadores cuánticos tienen sus propias formas de representar, guardar, copiar y operar qubits.
Igual que ocurre con los bits, la forma exacta en que hagan estas cosas no es demasiado importante, y sería
absurdo intentar adivinar ahora qué tecnologías se usarán en el futuro. Pero para concretar ideas puede ser útil
comentar algo sobre cómo se ha hecho esto en los ordenadores cuánticos construidos hasta hoy. En algunos
casos se han usado iones atrapados en campos eléctricos dentro de cámaras de vacío a temperaturas bajísimas;
estos iones se pueden manipular con láseres. En otros casos, cada qubit se ha representado con el spin de un
electrón atrapado en un pozo cuántico, de forma que si "giraba" en un sentido representaba un 1 y si giraba en el
sentido contrario representaba un 0. En estos casos el valor el qubit se puede manipular con campos magnéticos.
Se opera con los qubits en las puertas cuánticas, cuyo funcionamiento tiende a ser muy complicado de
explicar.
En cualquier caso, notamos que los qubits se guardan en elementos muy pequeños (átomos o electrones)
y para manipularlos hace falta una maquinaria muy grande que está controlada por ordenadores tradicionales.
Quizás convenga aclarar que un nanoordenador es (o será, mejor dicho) un ordenador construido con piezas
extremadamente pequeñas, del tamaño de una molécula. Es de esperar que en los nanoordenadores serán
importantes los efectos cuánticos, pero en principio ni los ordenadores cuánticos tienen que ser nanoordenadores,
ni los nanoordenadores tienen que ser cuánticos.
Hay dos diferencias importantes entre un ordenador cuántico y uno clásico. La primera está en que al
operar con qubits se pueden hacer muchas operaciones a la vez. Por ejemplo, supongamos que en un ordenador
109
cuántico tenemos dos registros de 8 qubits; el primero vale 3 y 5 y el segundo vale 100 y 200 (en rigor
tendríamos que decir que cada registro está en una superposición de dos estados en vez de tener ambos valores,
pero vayamos abreviando). Bueno, pues podríamos sumar estos dos registros, de la misma forma en que los
ordenadores han hecho sumas toda la vida, pero el resultado sería una superposición de cuatro estados con
valores 103, 105, 203 y 205. Con un único "circuito" y con una única operación podemos hacer simultáneamente
cantidades enormes de sumas.
La segunda diferencia es que un ordenador cuántico tiene una operación nueva: observar un registro.
Aquí "observar" es lo mismo que se hace al abrir la caja del gato de Schrödinger y ver si está vivo o muerto. En
el caso de la operación anterior, si observásemos la suma, veríamos que su valor es alguno de los indicados,
escogido al azar con las probabilidades imaginables; por ejemplo, la probabilidad de que al observar la suma
viésemos 103 sería la probabilidad de que al observar el primer sumando viésemos 3 multiplicada por la
probabilidad de que al observar el segundo sumando viésemos 100.
Una aplicación: factorización de números enteros
Los ordenadores cuánticos no sólo son máquinas raras, sino que también se programan de forma rara.
Un ejemplo concreto a veces dice más que muchas abstracciones, así que describiremos muy vagamente, sin
entrar en detalles matemáticos, el algoritmo de Shor para factorizar números enteros, un problema del que ya
hablamos en el número 1 de Babab.
Aquellos que no quieran saber nada de números, pueden saltarse un par de páginas hasta la sección
"otras aplicaciones".
Recordemos que el problema de factorizar un número consiste en escribirlo como producto de números
primos; por ejemplo, factorizar 35 consiste en "descubrir" que 35 = 5x7.
Para factorizar un número en un ordenador cuántico necesitaremos dos registros (dos números, para
entendernos) con un número suficientemente grande de qubits. Cuantos más qubits tenga un registro, más
grandes los números que se pueden guardar en él, y nosotros queremos factorizar números grandes, así que
nuestros registros necesitan muchos qubits, digamos 1.000. En realidad ya la hemos fastidiado, porque hoy en
día no existe ningún ordenador cuántico que tenga ni siquiera diez qubits, pero sigamos.
Empezamos situando el primer registro en un estado tal que si lo observásemos podríamos ver cualquier
número que quepa en él. Esto es fácil; basta poner todos sus qubits a 1 con probabilidad 50% y a 0 con
probabilidad 50%. En estos momentos el primer registro podría valer si lo observásemos 0, 1, 2, 3, 4,... hasta un
número muy grande.
En otras palabras, el estado del primer registro es la superposición de un número enorme de estados;
uno de estos estados consiste en que el primer registro valga 1, otro consiste en que valga 2,...
110
Entonces hacemos cierta operación (no entramos a discutir cuál) con este primer registro y guardamos
el resultado en el segundo registro. A cada valor del primer registro le va a corresponder un valor del segundo
registro; como el primer registro puede tener un montón de valores, también el segundo tendrá montones de
posibles valores. Aquí es donde radica la fuerza bruta del ordenador cuántico: si el primer registro tuviese mil
qubits de longitud, entonces al hacer esta operación habríamos hecho el equivalente a 2 elevado a la potencia mil
operaciones individuales simultáneamente, un número más grande que el de partículas en el universo.
Imaginemos que tras hacer esto el segundo registro puede valer 2, 6, 7, 13, 17,...
Ahora observamos el segundo registro; es decir, lo mandamos fuera de la "caja" donde están
"encerrados" los qubits para que interaccione con el mundo exterior. Por decir algo, mandamos este registro a
una impresora y entonces tenemos un número escrito en un trozo de papel, digamos 7. De esta forma el segundo
registro pasa a tener un valor concreto de entre todos sus posibles valores. Es lo mismo que pasaba con el gato de
Schrödinger, antes de abrir la caja está en una superposición de estados vivo y muerto, pero una vez que se le
observa pasa a estar o bien vivo o bien muerto. En el caso del registro, pues igual: adopta uno y sólo uno de los
posibles valores que podría adoptar.
Bien, pues resulta que el primer registro también ha cambiado sin que nosotros hayamos hecho nada
con él, simplemente porque hemos mandado fuera el segundo.
Volvamos a pensar en el gato de Schrödinger. Antes de abrir la caja, no sólo el gato está en una
superposición de estados, sino también la muestra radiactiva: podría haber sufrido una desintegración, o varias, o
ninguna. Su estado es la superposición de muchos estados: que no haya habido ninguna desintegración, que se
haya desintegrado este átomo, que se haya desintegrado ese otro átomo, que se hayan desintegrado aquellos dos
átomos de allá... Cuando abrimos la caja y observamos al gato (efecto), también hacemos una observación
indirecta y parcial sobre la muestra radiactiva (causa): si el gato está muerto, entonces se ha desintegrado por lo
menos un átomo, pero ojo, no sabemos qué átomo o átomos se desintegraron. Para averiguarlo todo y saber
también qué átomos se han desintegrado, tendríamos que observar la muestra radiactiva. Si lo que hacemos es
observar al gato (efecto), pero no observamos la muestra radiactiva (causa), entonces sólo condicionamos un
poquito la muestra; concretamente, si el gato está muerto, entonces los posibles estados de la muestra quedan
restringidos a aquellos en los que ha habido por lo menos una desintegración.
Con el método de Shor estamos haciendo algo parecido; observamos el segundo registro (el efecto),
pero no el primero (la causa), de forma que restringimos de una forma muy peculiar los valores que podrá
adoptar el primer registro cuando sea observado.
El resto del método de Shor es demasiado matemático y no nos interesa; digamos simplemente que se
resuelve el problema a partir de esos valores tan peculiares que son posibles para el primer registro. Los
interesados en los detalles matemáticos pueden consultar esta página.
Todo esto suena muy raro, es cierto. Pero en 2001 ya se consiguió factorizar 15= 3x5 usando una
variación de este método en un ordenador cuántico de 5 qubits. Se estima que un ordenador actual tardaría varios
111
miles de millones de años en factorizar un número de 1.000 cifras, mientras que un ordenador cuántico con
10.000 qubits lo haría en ¡20 minutos!
Otras aplicaciones
Los ordenadores cuánticos no servirían sólo para echar cuentas.
Por ejemplo, servirán para hacer transmisiones absolutamente seguras. Esto ya se ha comprobado y que
posiblemente estará pronto en la calle. Aclaremos que "transmisión absolutamente segura" no implica seguridad
absoluta; el que una transmisión no se pueda interceptar no quiere decir que el ordenador donde se guarde el
mensaje ya recibido no pueda ser robado, por decir algo.
Los ordenadores cuánticos también se podrán usar para hacer una cosa llamada teleportación. No, no
pensemos en Star Trek; esto consistiría tan sólo en leer el estado cuántico de un átomo y copiarlo en otro átomo
situado a una distancia grande.
A título de curiosidad, los ordenadores cuánticos podrían parecer mágicos en algunos sentidos. Por
ejemplo, se les podría poner a buscar demostraciones de algunos teoremas matemáticos, y posiblemente las
encontrarían, solo que serían tan largas que nadie podría comprobarlas. Es posible que para imprimirlas hiciesen
falta volúmenes de papel más grandes que el universo. Entonces, uno de estos ordenadores podría decirnos que
tal o cual teorema es cierto, y nosotros nos lo tendríamos que creer sin ver la prueba.
Mencionemos de pasada que también se podrían usar otros efectos cuánticos, como la
superconductividad, para acelerar el funcionamiento de ordenadores, ya sean cuánticos o no. Esto es otra historia
que no tiene mucho que ver con lo que estamos hablando. De hecho, todos los ordenadores actuales funcionan
usando en sus transistores el efecto túnel, que es un fenómeno cuántico, y esto no convierte a nuestros
ordenadores en cuánticos.
Un poco de escepticismo
Como hemos visto, los ordenadores cuánticos funcionan y en principio son una cosa estupenda. ¿Pero
cuáles son sus límites? Es pronto para saberlo, pero hay quienes creen que los ordenadores cuánticos no llegarán
a ser mucho más potentes que los ordenadores convencionales.
La mayor limitación hoy por hoy parece ser el número de qubits que puede tener un ordenador cuántico.
En teoría no hay nada que limite esto, pero en la práctica está resultando muy difícil llegar a tener una memoria
tan pequeña como diez qubits. La razón es que todos los qubits han de estar "encerrados" en la misma "jaula",
para estar aislados del exterior pero poder relacionarse entre sí. Pero en las jaulas de las que disponemos hoy en
día no se pueden meter muchas cosas sin que empiecen a interferirse mutuamente.
112
Pensemos por un momento en lo que podríamos hacer con un ordenador clásico con diez bits de
memoria: podríamos usarlo para guardar un número de tres cifras, solo que no podríamos hacer ninguna
operación con él porque no tendríamos dónde guardar el resultado. Sería ridículo. Con los ordenadores cuánticos
de hoy día pasa lo mismo, no sirven más que para hacer experimentos y aprender a hacer otros más grandes.
Para que un ordenador cuántico llegase a tener la capacidad de un mainframe ordinario, necesitaría
tener unos 1.000 qubits. Harían falta bastantes más antes de que le resultase interesante a la CIA para descifrar
códigos.
Otro problema serio es que hemos dado por supuesto que los qubits se pueden copiar y manipular, y
hemos dicho que los detalles no son importantes, pero es que esto no está tan claro. Imaginemos que tenemos un
qubit tal que si lo observásemos valdría 0 con probabilidad 50% y 1 con probabilidad 50%. Al copiar este qubit
para, por ejemplo, multiplicarlo por otro en una puerta cuántica, es posible introducir un pequeño error de forma
que el qubit copiado tenga probabilidades 49 y 51. Si los errores se van acumulando, llegará un momento en que
los resultados no serán fiables. Se han propuesto mecanismos para corregir esto, pero siguen habiendo reservas.
Esto no es un problema con los bits clásicos, porque sólo pueden valer o 0 o 1. Si una puerta lógica se
encuentra en una de sus entradas con 4.9 voltios en vez de 5.0, sabe perfectamente cuál debe ser el resultado, y al
producir 5 voltios en su salida ha corregido automáticamente el error anterior. Esto no es posible con qubits
porque en principio cualquier probabilidad es posible.
Recordemos también que hace falta que el ordenador cuántico esté completamente aislado del exterior.
Pero esto no es posible, vivimos en un mundo lleno de interferencias incontrolables, como los rayos cósmicos,
que pueden alterar los estados de los qubits. Esto podría llegar a ser un problema al hacer cálculos largos.
Finalmente, otra razón para desconfiar de todo esto es recordar lo que ha pasado con otras formas de
computación que parecía que se iban a comer al silicio. Hace unos años daba la impresión de que los
ordenadores ópticos iban a destronar a los electrónicos, y sin embargo todo avance en fotónica se ha visto
eclipsado por los correspondientes en electrónica. Esto no quiere decir ni mucho menos que la investigación
sobre ordenadores ópticos haya sido inútil; ahí tenemos los DVD y los CDROM reescribibles. Pero cada día
parece más difícil que los ordenadores del futuro estén basados prioritariamente en la luz. Otra desaparición
exótica: de la computación con ADN no se ha vuelto a hablar.
Otro detalle es que los ordenadores cuánticos no serán más rápidos que los convencionales en todas las
tareas. Su ventaja es que pueden usar un único dispositivo para efectuar simultáneamente un número
astronómico de operaciones. Esto es muy útil para algunos tipos de problemas, pero no para otros; un ordenador
cuántico será más rápido que no de silicio a la hora de hacer búsquedas en bases de datos o de jugar al ajedrez,
por ejemplo, pero no para hacer cálculos secuénciales o como servidor en la web.
113
Y sin embargo no deberíamos ser demasiado pesimistas; la mayor parte de los expertos espera que los
primeros ordenadores cuánticos realmente prácticos aparezcan dentro de unos veinte años. Quién sabe; viendo el
ritmo al que mejoran los ordenadores de silicio, ¿quién se atrevería a decir que esto es imposible? Fijémonos en
la velocidad a la que se ha desarrollado la historia de la computación cuántica. En 1982 Feyman observó que a
los ordenadores convencionales les costaba demasiado tiempo hacer cierto tipo de simulaciones de sistemas
cuánticos, pero que esos mismos cálculos se podrían hacer muy rápidamente con un simulador que manipulase
directamente estados cuánticos. Después Leggett propuso unas circunstancias en las que un objeto macroscópico
podía tener un comportamiento cuántico si se encontraba convenientemente aislado de su entorno. Deutsch
describió por primera vez un ordenador cuántico en 1985. En 1994 Shor publicó su famoso método de
factorización de enteros, y con ello demostró que existía al menos un problema realmente interesante que sólo se
podía resolver rápidamente con un ordenador cuántico. De repente hubo gente con dinero interesada, y empezó
la carrera. Tan sólo cuatro años más tarde, en 1998, IBM construía un ordenador cuántico con 3 qubits.
De momento, la computación cuántica es un nuevo campo de la ciencia que tiene profundas
implicaciones sobre nuestra forma de ver el mundo en que vivimos, y que está revolucionando otras áreas como
la teoría de la información y la criptografía. Dentro de poco los estudiantes de informática tendrán que estudiar
física cuántica, los filósofos empezarán a darle vueltas al hecho de que la naturaleza del universo es
computacional, y antes de que nos demos cuenta todo esto nos sonará a viejo y volveremos a pensar que ya se ha
inventado todo.
FUENTES DE INFORMACIÓN- BIBLIOGRAFÍA.

http://www.redcientifica.com/doc/doc200212170001.html

ORDENADORES CUÁNTICOS. Jesús Ruiz Felipe. Profesor de Física

http://www.sociedadelainformacion.com/fisica/ordenadorescuanticos.htm

http://www.babab.com/no12/ordenadores.htm

http://www.solociencia.com/informatica/05102401.htm

http://galeon.hispavista.com/fisicaficcion/aficiones8172.html

http://www.tendencias21.net/Conciben-la-arquitectura-del-primer-ordenador-cuantico_a167.html
114
8.- TERMINOLOGÍA HARDWARE UTILIZADA EN TECNOLOGÍA.
1.1.- Procesador: En el interior de un ordenador habita una densa amalgama de componentes electrónicos que
son los responsable de su correcto funcionamiento; componentes que conforman los circuitos que dan vida al
ordenador. Entre ellos destaca una zona fundamental, denominada UNIDAD CENTRAL DE PROCESO
(Central Processing Unit) Es el cerebro del PC; es un chip que se encarga de procesar las instrucciones y los
datos con los que trabaja el computador. El procesador es el dispositivo más importante de un PC y el que más
influye en su velocidad.
1.2.- Memoria RAM: La memoria RAM (Random Acces Memory) o memoria principal son unos chips en los
que el procesador almacena de forma temporal los datos y los programas con los que trabaja. La cantidad de
memoria RAM influye bastante en la velocidad de un PC, entre más memoria RAM tenga, más rápido trabaja los
programas y más programas puede tener abiertos al mismo tiempo.
1.3. Disco duro: Es el dispositivo de almacenamiento permanente interno en el que se g uardan los programas y
todos los archivos que usted crea con esos programas cuando trabaja en el computador. Entre más capacidad
tenga un disco dura, más información y programas puede almacenar en el PC. La capacidad del disco duro se
mide en gigabytes (GB). Un GB equivale a 1.024 MB aproximadamente.
1.4. Unidad de CD-ROM: Esta unidad sirve para leer los discos compactos (CD-ROM) en los que vienen casi
todos los programas y para escuchar CD de música en el PC. La velocidad de una unidad de CD ROM depende
dos factores: la tasa de transferencia de datos (lo más importante y el único dato que le mencionarán) y el tiempo
de acceso.
La tasa de transferencia de datos se refiere a la cantidad de datos que la unidad de CD ROM puede enviar al PC,
en un segundo. Esa tasa se mide en kilobytes por segundo (kbps) y se indica con un número al lado de un X, por
ejemplo: 16X, 24X, 48X...(a más X, mayor velocidad). Así pues una unidad de 24X puede enviar al computador
3.6000 kb de datos en un segundo y una unid ad de 48X, puede transferir 7.200 kbps, el doble de una 24X.
1.5. Unidad de CD RW: Es la que permite en un disco compacto, como el CD ROM o el CD de música, escribir
y guardar información; tiene las ventajas tradicionales de esos discos, como durabilidad y una gran capacidad de
almacenamiento de datos (650 MB). Una unidad de CD RW permite escribir información en dos tipos de discos:
CD grabables (CD R por CD recordable) y CD reescribible (CD RW por CD Rewritable) La principal diferencia
es que un CD R, permite grabar información sólo una vez (lo que graba no se puede borrar después) mientras
que un CD RW le permite escribir y borrar información cuando quiera (como un disquete o el disco duro).
1.6. Módem: Es un aparato que permite a los PC intercambiar datos por las líneas telefónicas. Es el dispositivo
que se usa para navegar por Internet. También sirve para enviar y recibir faxes desde el PC (por ello algunos lo
llaman fax-módem). La forma corriente de conectarse con Internet es a través del teléfono, por lo tanto se
necesitará de uno. Hay módem de todas las formas y tamaños. Algunos son una cajita separada y se conocen
como módems externos, con cables que se conectan al computador y a la línea telefónica. Algunos otros se
encuentran dentro del computador con un sólo cable para el teléfono; los más nuevos son pequeños objetos del
tamaño de una tarjeta de crédito que se insertan en la tarjeta madre.
Además de la variedad de tamaños físicos, hay también una enorme variedad de características internas. La
velocidad en la cual opera un módem (es decir, la velocidad a la cual puede transferir información del
computador en la línea telefónica) va desde unos 2.400 bits por segundo, ya obsoleto hoy, hasta los 56 kilobits y
algunas velocidades mayores si la conexión se realiza mediante cable (fibra óptica) o satelital.
Al comprar un módem es importante que escoja uno compatible con el estándar V.90. Inicialmente, los módem
de 56 kbps hacían parte de dos bandos: los que usaban la tecnología k5 6 flex y los que empleaban X2; V90 es
un estándar que acabó con esa rivalidad.
1.7. Caché secundario: El caché secundario o de segundo nivel (L2) es un chip de memoria de alta velocidad
(mucho más rápida que la memoria RAM) Este chip mejora el desempeño debido a que el computador puede
colocar y tomar datos e instrucciones del caché secundario, en lugar de usar la más lenta memoria RAM.
El caché secundario suele estar ubicado en la tarjeta madre, pero a veces está integrado en el módulo del
procesador (en procesadores como el k6-III). La capacidad de almacenamiento de dato del caché se mide en
kilobytes (KB) y entre más caché, mejor (porque el PC tendrá más instrucciones y datos disponibles en una
115
memoria más veloz). Dependiendo del procesador que utilizan, los PC generalmente incluyen 512, 256 o 128
KB de caché secundario.
1.8. Tarjeta madre: Es una tarjeta interna que aloja los principales componentes del computador, como el
procesador, la memoria RAM, las ranuras de expansión, caché secundario y el BIOS. En esa tarjeta también
están integrados los controladores que manejan dispositivos como el disco dura, el teclado y el ratón. En los PC
de bajo costo a veces la tarjeta madre incluye un chip de vídeo (que reemplaza la tarjeta de vídeo) y un chip de
sonido (que reemplaza la tarjeta de sonido).
1.9. Ranuras de expansión: Están ubicadas en la tarjeta madre y permiten conectar tarjetas de expansión que
dotan al PC de ciertas capacidades. En esa ranuras se inserta, por ejemplo, la tarjeta de sonido (que permite al PC
reproducir sonido) el módem interno (que hace posible navegar por internet) la tarjeta de vídeo (que permite
mostrar imágenes en la pantalla). Una tarjeta madre moderna deberá incluir tres tipos de ranuras de expansión:
ISA, PCI y AGP.
Ranuras ISA, son bastante antiguas y cada vez se utilizan menos debido a que los dispositivos conectados en ella
se comunican por un bus muy lento (un bus es una avenida por la cual viajan los datos en el computador; un PC
tiene vario s buses). Las ranuras ISA se emplean para dispositivos que no requieren una gran capacidad de
transferencia de datos, como el módem interno.
Ranuras PCI, estas aparecieron en los PC a comienzos de los 90 y se espera que reemplacen por completo a las
ISA, la mayoría de las tarjetas de expansión se fabrican para ranuras PCI, gracias a que éstas usan un bus local
(llamado PCI) con una buena capacidad de transferencia de datos: 133 megabytes por segundo (MPPS) Otra
ventaja es que el bus local ofrece una vía de comunicación más directa con el procesador. En las ranuras PCI se
conectan dispositivos como la tarjeta de video y la tarjeta de sonido.
Ranura AGP, es una sola y están incluida en las tarjetas madres última tecnología; se creó para mejorar el
desempeño gráfico. A pesar de que el bus PCI es suficiente para la mayoría de los dispositivos, aplicaciones muy
exigentes como las gráficas en 3D, requiere una avenida más ancha y con un límite de velocidad mayor para
transportar los datos. Eso es lo que ofrece AGP, un bus AGP puede transferir datos a 266 MBps (el doble de
PCI) o a 533 MBps (en el modo 2X) y hay otras ventajas: AGP usa un bus independiente (el bus PCI lo
comparten varias tarjetas) y AGP enlaza la tarjeta gráfica directamente con la memoria RAM. La ranura AGP es
ideal para conectar una tarjeta aceleradora de gráficos en 3D.
Según sus necesidades, algunas ranuras serán más importantes que otras, pero en general es recomendable que el
PC tenga ranura AGP (en caso de que planee agregar una aceleradora de gráficos en 3D) y que le quede libre por
lo menos una ranura PCI (para conectar otras tarjetas en el futuro, como la que incluyen las unidades DVD para
descodificar el vídeo de las películas de cine). En el elemental mercado nacional a uno rara vez le mencionan las
ranuras de expansión, es importante que pregunta por ellas para que el día que necesite agregar una tarjeta no se
lleve la sorpresa que de descubra que su PC no tiene una sola ranura disponible.
1.10. Puertos USB: Desde hace tres años, los PC, traen un puerto llamado USB (Universal Serial Bus) que
facilita la conexión de periféricos. Un periférico es cualquier dispositivo externo que conecte al computador,
como el monitor, el teclado, el ratón, una impresora, un escáner, etc. Los puertos USB, que paulatinamente
desplazarán a los puertos serial y paralelo, tienen dos ventajas: velocidad y facilidad de uso (todos estos son
puertos externos; están en la parte trasera del PC).
En teoría, un puerto USB permiten transferir datos a 12 megabits por segundo (Mbps) o sea diez veces más
rápido que un puerto serial. Esa velocidad no es imprescindible para un dispositivo como el ratón (aunque hay
ratones USB) pero si es una opción para conectar aparatos como una unidad ZIP o una cámara de vídeo para
Internet.
Adicionalmente, los periféricos para puertos USB son reconocidos automáticamente por el computador (y se
configuran casi automáticamente) lo cual evita dolores de cabeza al instalar un nuevo dispositivo en el PC.
Un dispositivo USB, soporta conexión en caliente, esto es, que se puede realizar la conexión trabajando el PC,
sin necesidad de reiniciarlo.
Si va a comprar un PC, búsquelo con USB, y si va a comprar periféricos, como un ratón, una unidad de discos
removible o una cámara de vídeo, aproveche las ventajas de ese puerto y compre modelos para USB (en los
116
puertos USB únicamente se pueden conectar periféricos específicamente diseñados para ese tipo de conector).
Todavía no hay muchos periféricos con conector USB, pero ya se consigue uno que otro, y no tiene por qué
costar más que el modelo para puerto paralelo o serial (en los Estados Unidos su costo es igual).
11. Tarjeta gráfica o de video: Es una tarjeta que le permite al PC mostrar imágenes en el monitor; se la conoce
con muchos nombres, como tarjeta gráfica, tarjeta de video, adaptador de video y controlador de video. Esta
tarjeta convierte los datos con los que trabaja el computador en las señales que forman las imágenes en el
monitor. E n los PC económicos, es común que la tarjeta de video sea reemplazada por un chip de video
integrado en la tarjeta madre, ese esquema reduce el precio del PC y la calidad es aceptable.
Las tarjetas gráficas modernas, que generalmente se conectan en la ranura PCI de la tarjeta madre (las más
recientes en la ranura AGP) traen su propia memoria (llamada memoria de video) y un chip para manejo de
gráficos. La cantidad de memoria de video determina el número de colores que puede desplegar el monitor y la
resolución máxima.
La resolución es la nitidez y definición de las imágenes que se muestran y se mide por el número total de pixeles
en la pantalla (los pixeles son los puntos que forman una imagen. Por ejemplo, una pantalla con una resolución
800 por 600 pixeles (lo común en los monitores super VGA de 14 pulgadas que traen casi todos los PC) puede
mostrar 800 puntos en cada una de las 600 líneas de la pantalla, es decir, 480.000 pixeles (entre más pixeles, más
resolución).
El número de colores , por su parte, se refiere a la cantidad de colores diferentes que pueden mostrar. A una
resolución de 800 por 600 pixeles es necesario tener 2 MB de memoria de video para poder mostrar 16,7
millones de colores, esa profundidad de color se conoce como color real o de 24 bits (porque se usan 24 bits de
información para representar cada pixel) En esa misma resolución (800 x 600) 1 MB de memoria de video
únicamente permite mostrar 65.000 colores (color de16 bits) y 512 KB de memoria de video permiten mostrar
256 colores (color de 8 bits).
Si el monitor es más grande, por ejemplo de 17 pulgadas, lo usual es trabajar con una resolución mayor, general
1.024 por 768 pixeles, en ese caso, se requiere más memoria de video (4 Mb) para poder mostrar colores reales
(16,7 millones). Entre más grande el monitor y a mayor resolución lo configure, necesita más memoria de video,
entonces lo recomendable es que la tarjeta gráfica tenga mínimo 4 u 8 MB de memoria de video.
Tenemos que recordar también que la cantidad de colores y la resolución máxima depende del monitor. Una
tarjeta gráfica que permita una resolución alta no sirve de nada si el monitor no soporta esos mismos niveles de
resolución y viceversa.
Algunas tarjetas aceleradoras también tienen funciones adicionales, como la capacidad de descomprimir video
MPEG-2 (algo necesario para ver películas de cine en DVD) y soporte a televisión (para que pueda ver
televisión en el PC o usar un TV como monitor del PC).
12. Tarjeta de sonido : Es la que permite al computador manejar sonido (también se conoce como tarjeta de
audio). Esta tarjeta hace posible reproducir sonido por medio de los parlantes o grabar sonidos provenientes del
exterior mediante el micrófono (es una tarjeta interna, pero tiene puertos externos en los que se conectan los
parlantes y el micrófono). En los PC de bajo costo, a veces la tarjeta de sonido es reemplazada por un chip de
sonido integrado en la tarjeta madre; eso reduce el precio del computador, pero la calidad es aceptable.< BR>
Hasta hace poco, la mayoría de las tarjetas de sonido se conectaban en la ranura ISA, ya que no necesitaban una
gran capacidad de transmisión de datos. Pero a medida que a esas tarjetas se le incluyeron más funciones, se hizo
necesario un bus de mayor capacidad, por ello, las tarjetas más recientes son para ranura PCI, aunque todavía
hay bastantes tarjetas ISA en el mercado. (y son más económicas).
1.13. Unidad de DVD ROM: Es un periférico opcional que permite leer disco DVD ROM, además de CD ROM,
CD de música y otros formados de CD. El DVD es un nuevo tipo de disco compacto que ofrece una capacidad
de almacenamiento de datos muy superior a la de un CD ROM; mientras que un CD ROM o cualquier otro tipo
de CD convencional puede guardar 650 MB de datos, a un DVD le cabe entre 4,7 y 17 GB o sea, entre 7 y 265
veces más. Debido a ello, las unidades de CD ROM serán desplazadas paulatinamente por las unidades de
DVDROM eso ya ocurre en segmentos altos en los Estados Unidos.
La unidad de DVD ROM es un lujo interesante, especialmente si le gusta el cine, pues es la que más consigue en
DVD, pero no necesario; no hay muchos programas y las unidades cuestan bastante, bueno, pero de todas formas
quieren comprarla les recomiendo que busquen una unidad de DVD ROM, de tercera generación u otra para
117
cuando lean este texto. Estas unidades ofrecen velocidades de 6X en DVD ROM , frente a 2X de las unidades de
DVD ROM, de segunda generación y leen CD ROM a una velocidad de 24X.
Huelga advertir que una velocidad de 6X en DVD equivale a 8.100 kb por segundo, no a 900 kb por segundo
como en las unidades de CD ROM; mutatis mutandi, no deje que el 6X le haga pensar que son lentas, estas
unidades son bastantes veloces cuando trabajan con DVD. En cambio el otro dato, la velocidad de 24 X en CD
ROM, si equivale al de una unidad de CD ROM o sea que una de las más veloces unidades de CD ROM, (54X),
es dos veces más rápida que una unidad DVD ROM al trabajar con disco CD ROM.
1.14. Unidad de disquete: Esta unidad lee y escribe en los disquetes, unos discos que sirven para transportar
datos de un lado a otro. Los disquetes tienen una capacidad de almacenamiento de datos muy baja: 1.4
megabytes (MB). Sirven para guardar y leer información, pero a diferencia del disco duro que está fijo dentro del
PC, los disquetes se pueden introducir y sacar de la unidad.
15. Teclado. Hay básicamente dos tipos de teclados: corrientes y ergonómicos. Los primeros son los más usados
y los que vienen con los equipos de marca son de buena calidad. Para los clones se consigue genéricos a precios
reducidos (unos 10 dólares) pero por dos o tres dólares más, se puede adquirir uno de marca (Acer o Genius) de
mejor clase. Los ergonómicos son más costosos y aunque ya se consiguen genéricos, los mejores son de marcas
como Microsoft o Genius.
1.16. Impresora : Es el periférico más importante, diferente a los componentes estándar, de un computador. Hay
básicamente dos tipos de impresoras: personales y para grupos de trabajo. Las segundas son aquellas que se
conectan a redes y usualmente son modelos láser aunque hay algunas de inyección de tinta para grupos
pequeños.
Las personales en su gran mayoría son de inyección de tinta, aunque existen algunos modelos láser de escritorio.
Las de matriz de punto hoy sólo se utilizan para propósitos especiales como en el comercio o trabajo pesado para
impresiones de grandes cantidades, especialmente porque pueden imprimir copias con papel carbón ya que
operan mediante impacto (similar a una máquina de escribir) cosa que las otras impresoras no pueden hacer. No
se recomiendan para uso personal.
1.17. Escáner: Son unidades que permiten copiar documentos y archivarlos digitalmente, son una especie de
fotocopiadora pero en vez de imprimir se almacena en un archivo. Con el auge del documento electrónico y la
caída vertical de sus precios, los escáner se han vuelto casi tan popular como las impresoras. Usualmente son
producidos por las mismas empresas que fabrican éstas y los hay p ara el hogar, para oficina y para usos
profesionales.
Los escáneres se han vuelto casi tan comunes como las impresoras. Su facilidad de uso y precio, ya lo dijimos,
han contribuido a esa popularidad. HEWLETT PACKARD es, desde hace años, uno de los líderes en esta
tecnología. El ScanJet 5200C es uno de sus modelos intermedios, para cubrir necesidades de la casa o una
oficina con flujo moderado de documentos. El proceso de digitalización de las imágenes es inteligente, pues
marca automáticamente las áreas del documento que contienen texto y las áreas que son imágenes, aunque
también es posible escanear solamente texto o solamente imágenes en formatos tan populares como JPEG o GIF.
El escáner también puede enviar los documentos directamente a determinados programas como Corel Draw o
Photoshop, bien sea que se encuentren ya en el PC en el momento de instalar este periférico o que se instalen
posteriormente. En el caso de CD el proceso es bien interesante, ya que al enviar el documento este se convierte
a formato.CDR (formato nativo de Corel) de manera que queda dividido en objetos que se pueden organizar
libremente en el diseño como si hubieran sido creados con esta herramienta.
En cuanto al proceso de OCR (reconocimiento óptico de caracteres) es bastante satisfactorio; no es demasiado
preciso, pero hay que aclarar que una alta precisión sólo la alcanzan programas para OCR profesionales como
OMNIPAGE.
Hay dos tecnologías que están compitiendo: la óptica o CCD (dispositivo de carga acoplada) que utiliza un chip
para capturar y digitalizar la imagen que llega a este mediante un sistema de lentes y espejos, es decir, que su
tecnología es muy similar a la de la mayoría de fotocopiadoras y las CIS (censor de imágenes por contacto) que
consta de una sola hilera de censores colocados a unos dos milímetros bajo el documento y prescinde de lentes y
espejos.
118
BIBLIOGRAFÍA

SÁNCHEZ SERNA, C. (2002) “Tecnologías de almacenamiento de datos utilizados en la enseñanza e
investigación y su futuro en las T.I.C” En C. Sánchez Serna, Orientación, tutoría y psicopedagogía.
Experiencias y recursos. Curso 2001-2002. (Pg 275- 287). Elda: Cefire. En Internet:
http://cefirelda.infoville.net

Extracto de los Capítulos 1 al 6 del Proyecto fin de carrera: “Estado actual de los Materiales y
Tecnologías de Almacenamiento de datos” de Ingeniería de Materiales en la UMH. Hernández de Elche.
Autor: César Sánchez Serna.

SÁNCHEZ SERNA, CÉSAR. VILLENA ROBLIZO, Mª DOLORES (2003). “Tecnologías y materiales de
almacenamiento: DVD, DVD-AUDIO VS. SACD y el AUDIO DIGITAL. Formatos de audio multicanal.”
Curso 2003-2004. Elda: Cefire. En Internet: http://cefirelda.infoville.net

WTEC Panel on the Future of Data Storage Technologies - June 1999. Sponsored by the National Science
Foundation (NSF), Defense Advanced Research Projects Agency (DARPA) and National Institute of
Standards and Technology (NIST) of the United States government. http://itri.loyola.edu.
a) Libros



"Advanced PC Architecture". Buchanan.-Wilson. Addison - Wesley, 2001.
"Ampliar y reparar su PC" Herbert Buckel, Greogor Brandt, Andreas Voss. Editorial Marcombo, 4ª edición,
1998.
"PC: actualización y mantenimiento". Juan Manuel García Calvo, Javier Sánchez Baños. Editorial Anaya
Multimedia, colección Guías Prácticas.
"Upgrading and repairing PC´s". S. Mueller. QUE Corporation, 6º edición, 1996.
C. Ruemmler, J. Wilkes. An Introduction to Disk Drive Modelling. IEEE Computer, 27(3), pp. 47 -57.
Dogan A. Timucin and John D. Downie, IEEE Potentials, Vol. 19, No. 4, Holographic Optical Storage,
Oct/Nov 2000
DESMARAIS, N. (1988): The Librarian's CD-ROM/DVD Handbook, Meckler.

ELSHAMI, A. (1989): CD-ROM: An Annotated Bibliography, Colorado, Libraries Unlimited.

GARCÍA RAMOS, L.A. (1991): Discos ópticos, Barcelona, Pionner-Biblioteca técnica.






GONZÁLEZ, C./Vázquez, P.(1991): Encuesta sobre utilización del CD-ROM / DVD en las bibliotecas de
Ciencias de la Salud de España, Revista Española de Documentación Científica, 14, 3. 314-325.
TISCHER M.: PC interno. Programación de sistemas. Marcombo, 1993
GARCÍA DE CELIS C.: El Universo Digital del IBM PC, AT y PS/2.
ANGULO J. M.: Microprocesadores de 16 bits. Paraninfo, 1985
LAMBERT S., ROPIEQUET S.: CD-ROM. El nuevo papiro. Anaya, 1987
LAUREN G. Lectores Ópticos, Paraninfo, 1997

P. Asthana, B. I. Finkelstein, A. A. Fennema, “Rewritable Optical Disk Drive Technology”, IBM, 1996.


[AG95] E. Alcalde y M. García. Informática Básica. (Segunda edición). McGraw Hill 1995.
[Bro95] J.G. Brookshear. Introducción a las Ciencias de la Computación. Cuarta Edición. AddisonWesley Iberoamericana 1995 (original de 1994).
[CF97] C. Cerrada y V. Feliu. Estructura y tecnología de computadores I. Universidad Nacional de
Educación a Distancia 1997.





B) Revistas Mensuales
Revista CD WARE MULTIMEDIA - Nº 31 - “Ya están aquí: Las primeras unidades de DVD-ROM y CDRW” - http//www.lar.es/cdware.htm - [email protected] No 31, Mayo de 1997, págs. 64 a 67. “DVD y CDRW”.
Revista PC Plus, año 4 número 37, Febrero 2000. Artículos varios sobre DVD
119
-
PC WORLD 2003 http://www.idg.es/pcworld/
PC ACTUAL http://www.vnunet.es/pcactual/
SÓLO PROGRAMADORES

Revista “Business Week”, Junio de 1997, págs. 44 a 66. “Information Technology Annual Report”, por Neil
Gross.

Revista “Investigación y Ciencia”, Número 49, págs. 94 a 104. “Tecnologías de Memoria de Disco”, por
Robert M. White. No 32, Junio de 1997, Págs. 78 a 85. “Interfaces de usuario”.
Revista “Byte”:
I.
Vol. 21, No 4, Abril de 1996, Págs.. 44 a 54. “When silicon hits its limits, What’s Next?”, por Tom
Thompson.
II.
Vol. 21, No 7, Julio de 1996, Págs. 93 a 98. “VR meets Reality”, por Dick Pountain.
III. Vol. 21, No 7, Julio de 1996, Págs. 99 a 100. “Eye-tracking technology. What pupils teach computers”,
por Alan Joch.
IV. Vol. 21, No 10, Octubre de 1996, Págs. 139 a 144. “Optical Disks: CDs for the Gigabyte Era”, por Tom
R. Halfhill.
Vol. 21, No 10, Octubre de 1996, Págs. 76 a 88. “3-D for everyone”, por Udo Flohr.
V.
VI. Vol. 22, No 1, Enero de 1997, pág. 48. “World’s Fastest Disk Drive”, por Stan Miastkowski.
VII. Vol. 22, No 5, Mayo de 1997, pág. 48. “Portable Hard Drive”, por Robert L. Hummel.
VIII. Vol. 22, No 6, Junio de 1997, pág. 48. “CD-Rewritable Drive”, por Stan Miastkowski.
IX. Vol. 22, No 7, Julio de 1997, Págs. IS/11 a IS/14. “VR: Promises Unfulfilled”.
*
C.D.
*
C.D.
*
Mee,
Mee,
K.G.
E.D.
E.D.
Ashar,
Daniel,
Daniel,
"Magnetic
"Magnetic
"Magnetic
Storage
Recording
Disk
Handbook",
Technology",
Drive
2ª
2ª
Technology",
Edición,
McGraw-Hill
1996
Edición,
McGraw-Hill,
1996
IEEE
Press
1997
* F. Jorgensen, " The Complete Handbook of Magnetic Recording", 4ª Edición, McGraw- Hill,1996
* H. J. Richter, "Recent advances in the recording physics of thin-film media", J. Phys. D.32(1999); R-147-R-168.
Direcciones de interés. Algunos enlaces útiles utilizados:
A continuación se relacionan las direcciones de la Páginas Web de donde se encontró información y contenido
del presente proyecto:










http://apple.cs.pusan.ac.kr/~ihkim/tr/DVD-ROM.htm
Fleming Multimedia DVD FAQ (http://www.flemingmultimedia.com/FAQDVD.html)
Meridian Data DVD Technology Overview (http://corporate.meridian-data.com/general/dvdwhit.htm)
Americ Disc - All you've ever wanted to know... (http://www.americdisc.com/english/dvd/index.htm)
En http://members.es.tripod.de/Toni_666_G/index.htmlinformatica3, encontramos algunos datos interesantes
acerca de la evolución en los diferentes tipos de almacenamiento de información.
En http://www.map.es/csi/silice/Unialm1.html, se describen las diferentes unidades de almacenamiento que
se dividen básicamente en dos: discos y cintas.
http://www.iomega.com. Aquí podemos encontrar los llamados Iomega Zip, que pueden almacenar 100 o 200
Mb (en inglés).
Artículo de IBM en el que se anuncia una oferta de sistemas de almacenamiento adaptado al entorno Linux:
http://www-5.ibm.com/es/news/notas/ 2001/marzo/almacenamiento.html
Sobre el sistema de almacenamiento NAS (Network Attached Storage): http://www.cycma.es/nas.htm
De la compañía Fujitsu, fabricante de unidades de almacenamiento removibles: http://www.fujitsu.es.
120
 Página del Consejo Superior de Informática, dependiente del Ministerio de Administraciones Públicas del
gobierno español: http://www.map.es/csi/csi.htm.
 Consejos para el correcto mantenimiento de disquetes:
http://www.planet.com.mx/~multicom/mante.html
 Tutorial para la compresión de información en disquetes:
http://www.terra.es/personal/tamarit1/winzip/comprimiradisquetes.htm .
 Sobre la estructura, el manejo y cuidados de los disquetes:
http://www.geocities.com/TimesSquare/Chasm/7990/los.htm
 Página personal con información sobre CD's y DVD:
http://www.terra.es/personal2/guasones/dvd/dvd.htm
 Artículo de Jesús Díez, de la Revista PC Hoy, sobre la unidad Iomega Zip y su evaluación:
http://www.pchoy.com/hardware/zip250.asp.
 Página Argentina con drivers de almacenamiento internos y externos, enlaces a preguntas frecuentes y
especificaciones de producto:
http://www.unisel.com.ar/unisel/Productos/Hardware/Iomega/Iomega.htm.
 Amplia información sobre los discos duros: http://www.duiops.net/hardware/discosd/discosd.htm
 Información sobre CD-ROM, DVD-ROM,
http://www.monografias.com/trabajos5/discopti/discopti.shtml
Información sobre cintas magnéticas, CD-ROM, DVD, MO, etc.:



























http://www.inei.gob.pe/cpi/bancopub/libfree/lib617/
http://www.map.es/csi/silice/Hw-sav6.html
http://www.jerocu.net/freebsd/docs/handbook/backups.html
http://leo.worldonline.es/jesuspas/chcinta.htm
http://leo.worldonline.es/jesuspas/
http://dac.escet.urjc.es/docencia/LPC/?second.html#links
http://sistemas.ing.ula.ve/sistemas/pd20/pd20/g1_a99/unidades.htm
http://www.nuia.com.ar/nuia26/DAT.HTM
http://www.itd.com/5-03/Informe.htm
http://www.intel.com/es/home/trends/future/index.htm
http://www.telecom-co.net/proyectos.htm
http://www.ddmsa.com/prod/mo_udo.html
http://www.men.minefi.gouv.fr/webmen/mission/docs/prog2002_es.html
http://www.geocities.com/CapeCanaveral/Campus/9468/nanotec2002/index.htm Nanotecnología
http://www.ucsc.cl/~kdt/materiales/
http://www.uv.es/~esanchis/cef/ Diodos LED, Fotónica
http://www.lab.dit.upm.es/~arqo/presentaciones/gm/index.html Transparencias sobre gestión de
memoria basada en el libro Operating System Concepts (5ª edición), de Abraham Silberschatz y Peter
Galvin (Curso 2000-2001).
http://www.icmm.csic.es/ Instituto de Ciencia de Materiales de Madrid. Consejo Superior de Investigaciones
Científicas. Cantoblanco, 28049 Madrid . Tel.: 91 372 14 20 - Fax: 91 372 06 23
http://www.siicyt.com.mx/
http://www.active-hardware.com/spanish/misc/hardlist1.htm Listado de Fabricantes de Hardware Ordenado
por categoría de Hardware
http://www.systech-world.com/ibm/noticias/rigidopequeno.htm récords de capacidad para computadoras
portátiles
IBM.
http://www.pccomparativas.com/comparativaregrabadorasdvd.htm
http://atc.ugr.es/~jbernier/asignaturas/perifericos/
IBM Storage Systems Division (http://www.storage.ibm.com/oem/tech )
Data Storage Institute, Singapore National University (http://www.dsi.nus.edu.sg/tracks/media/research )
Segate Technology (http://www.segate.com/support/kb/disc )
Read-Rite Corporation (http://www.readrite.com )
http://www.ele.uva.es/~imartin/
121
Conozca su hardware









www.conozcasuhardware.com. Artículos de discos duros. Controladoras IDE y SCSI. Ultimas tecnologías
Pc hardware www.pchardware.org. Artículos de discos duros. Diferencias de IDE y SCSI
Refly Chile. www.reflychile.cl. Diferentes discos duros y sus costos
Computación WEI. www.wei.cl. Diferentes discos duros y sus costos
Bip Computers. www.bip.cl. Diferentes discos duros y sus costos.
Construya su propio computador: http://www.geocities.com/SiliconValley/Haven/9419/index.html
Ayuda de Compaq a los usuarios del computador Presario:
http://www.compaq.com/athome/presariohelp/sp/storage/index.html#about
Conozca su computador. Universidad de Córdoba (Colombia)
http://www.unicordoba.edu.co/crismatt/informatica/
El Disco Duro - Dudas y preguntas: http://www.galiciacity.com/servicios/hardware/hddfaq.htm
http://www.telepolis.com/monografico/mono173/
Diversas noticias aparecidas en Internet extraídas de diversas fuentes de información:
http://diariored.com/blog/ana/archivo/000072.html
BOLETÍN MUNDOPC.NET Nº103. Enero de 2003. Versión HTML: http://mundopc.net/boletin
NOTICIAS.COM. Martes, Enero de 2003. http://www.noticias.com, e-mail:[email protected]
El Digital Tecnologí@ Los titulares de los medios especializados
http://www.telepolis.com
http://www.baquia.com/com/20020305/art00008.html
122