Download ensamble y mantenimiento - colegio salesiano leon xiii

Document related concepts

Wake on LAN wikipedia , lookup

IBM Personal System/2 wikipedia , lookup

Commodore Amiga 1200 wikipedia , lookup

Intel 8259 wikipedia , lookup

Interrupción wikipedia , lookup

Transcript
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 1 de
167
MÓDULO # 1: Introducción al ensamble de computadores
OBJETIVOS
Realizar una presentación global del contenido de la materia,
buscando la motivación de los estudiantes.
Conformar los grupos de trabajo para las sesiones prácticas.
Repasar e introducir algunos conceptos importantes de electrónica
digital y computadores.
SECCIÓN 1: PRESENTACIÓN DE LA MATERIA (TEÓRICA)
Realizar la presentación del programa de la materia.
Organizar grupos de trabajo.
Definir la metodología de evaluación.
SECCIÓN 2: CONCEPTOS BÁSICOS SOBRE COMPUTADORES (TEÓRICA)
El Bit, definición.
Diferencia entre análogo, binario, digital.
Sistemas de representación de dígitos.
Definición de Memoria, tipos de memorias.
Definición de Bus de información, clasificación de los Buses según su
función.
Códigos y representación de información.
Dispositivos periféricos.
Estructura básica de un sistema microprocesado completo.
PREGUNTAS PARA RESOLVER EN CLASE
1. Dé un ejemplo de una señal que pueda ser al mismo tiempo
binaria y análoga
2. ¿Cómo se representa en binario el valor hexadecimal 0xBFD8?
3. ¿Cómo se representa en hexadecimal el valor binario 0101 1100
0010 1001?
4. Explique por qué no es posible utilizar una memoria ROM como
memoria de datos.
5. ¿Un mismo carácter puede ser representado por dos secuencias de
dígitos binarios diferentes?
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
1
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
Página 2 de
167
S03modulos_0701.doc
MÓDULO # 2:
alimentación
Evolución
técnica
del
PC
–
La
fuente
de
OBJETIVOS
Dar a conocer las tecnologías que dieron inicio a los
computadores personales, su evolución hasta 1992.
Analizar qué factores concedieron el dominio del mercado a
algunos fabricantes y los hechos que permitieron la
permanencia o desaparición de algunas tecnologías.
Comprender las posibles implicaciones de nuevas tecnologías
de PC’s.
Conocer la forma como trabaja una fuente de voltaje y un
regulador electrónico.
Conocer los voltajes que entrega una fuente de voltaje y su
relación con los colores.
SECCIÓN 1: EVOLUCIÓN DEL PC (TEÓRICA)
LOS PRIMEROS PC
El IBM PC, presentado el 12 agosto de 1981, fue un equipo cuyo
objetivo era el mercado doméstico, con lo cual se comprenderán
fácilmente las limitaciones existentes en la primera generación.
Por lo que respecta al
microprocesador se trataba
del Intel 8088, una versión,
con el bus recortado a la
mitad de ancho, del 8086.
Esta CPU suponía un avance
respecto
a
los
microordenadores
comercializados
en
esa
época, pues todos eran de 8
bit, a excepción del Olivetti
M20, que incluía una CPU
Zilog 8000 de 16 bit, aunque
el 8088 no era un auténtico
16 bit.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
2
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
Página 3 de
167
S03modulos_0701.doc
El usar la CPU Intel 8088, con bus externo de 8 bit, tenía una
explicación, poder usar todos los "chips" de acompañamiento (que en
aquella época eran bastantes) existentes en el mercado, a precio
barato, de 8 bit. Si se hubiera empleado la CPU Intel 8086, como
hicieron de inmediato otras empresas como Olivetti en su M24 y Victor,
todos estos chips habrían de ser de 16 bit, con un precio muy elevado
en aquella época.
Así se concluye que IBM, buscó el fabricar un equipo novedoso en su
CPU, aunque limitando al máximo el precio de sus componentes, para
mantener un producto de calidad alta, prestaciones superiores frente a
los productos domésticos de la competencia, y a un precio que le
permitiera mantener los grandes márgenes comerciales.
La configuración básica estaba integrada por:
CPU Intel 8088 a 4.77 64 kB RAM
MHz
Controladora
modo texto
de
vídeo Controladora
(Centronics)
de
impresora
Monitor
exclusivamente Cinta
de
casette
para
de modo texto
almacenar datos y programas
Lenguaje BASIC en ROM
Teclado, de 84 teclas
Sin embargo esta versión no se llegó a comercializar pues se sustituyó
la unidad de casette por una de disco flexible de 160 kB de capacidad, y
como es lógico con su controladora. A su vez se introdujo el sistema
operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft
(en aquella época sólo era conocida por su lenguaje BASIC) a IBM.
La gran ventaja de este equipo era su facilidad de ampliación debido a
los "slots" o zócalos de que disponía, lo cual dio origen a que un gran
número de empresas independientes crearan tarjetas electrónicas
adaptables, que realizaban funciones no disponibles en el PC o que
mejoraban las existentes. Estos zócalos constituyen el tan conocido BUS
de expansión del PC, que dio lugar al BUS AT, un estándar a nivel
microinformático, conocido como Bus ISA. Se define como ancho de
banda del bus, la cantidad de bits que puede transportar por unidad de
tiempo, siendo inferior a 4 MB/s.
Dado que las especificaciones técnicas fueron hechas públicas por IBM,
esto dio origen, como se ha comentado previamente, al nacimiento de
gran cantidad de empresas que crearon tarjetas adaptables al bus.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
3
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 4 de
167
Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con
batería, pues el PC perdía la hora al apagarlo, tarjetas de vídeo con
posibilidades gráficas y que por lo tanto soportaban un monitor gráfico
y a veces en colores, tarjetas de comunicaciones como por ejemplo tipo
modem o telex, y otras muchas posibilidades.
Simultáneamente aparecieron los primeros microordenadores clónicos y
compatibles. La gran difusión de estos equipos, hizo que aparecieran
gran cantidad de programas, lo cual reforzó el liderazgo de los PC's de
IBM.
El PC AT de IBM
Al descubrir IBM, que su equipo se estaba usando
a nivel profesional, y poco a nivel doméstico, y
que por otra parte la competencia ofrecía equipos
con más prestaciones más baratos y totalmente
compatibles, decidió sacar una versión mejorada
de sus PC's, que denominó AT (Tecnología
Avanzada). Este incluía una CPU de 16 bit,
superior a la 8086, era la 80286 de Intel, cuya
principal diferencia respecto a la 8086 era el bus
de direcciones de 20 bit, en vez de 16, por lo que
podía direccionar mucha más memoria, aunque en aquella época no era
una gran necesidad.
Otra diferencia fundamental, era que los "slots" de expansión
constituían un bus de 16 bit, lo cual permitía utilizar las tarjetas de los
XT, a 8 bit, y las nuevas que se crearan para él. Este BUS AT se ha
convertido en un estándar (Bus ISA) ampliamente usado hasta hace
poco tiempo. A su vez la frecuencia de reloj pasó a ser de 6 u 8 MHz,
frente a los 4.77 del PC original.
Dado que Intel dio licencias para que sus CPU's fueran fabricadas por
otras empresas (Fujitsu, Siemens, AMD, Harris, ...), se abarataron los
costes de tal forma, que apareció el fenómeno de los clónicos tal como
lo conocemos actualmente, lo cual perjudicó mucho a IBM, pues el
mercado no sólo se distribuía entre IBM y las marcas de prestigio que
comercializaban compatibles (Olivetti, Bull, Compaq, Xerox, AT&T,
Philips, NCR y algunas otras), sino que empresas con pocos medios y
con gastos nulos de investigación, pues gran parte del producto lo
copiaban ilegalmente, podían ofrecer equipos clónicos a precios
imbatibles, aunque la mayoría de las veces con una calidad y seguridad
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
4
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 5 de
167
para el usuario ínfimas. Parte o en algunos casos todas las tarjetas
indicadas, hubo fabricantes que las incluyeron el la placa base, dejando
así más zócalos libres en el BUS AT, para posteriores ampliaciones.
La arquitectura de un AT estaba compuesta por:
Fuente de
alimentación
conmutada
Placa base o placa
madre, que
incorpora:
CPU Intel 80286 con
frecuencia de reloj desde
6 hasta 20 MHz
Memoria RAM de 1
MB. ampliable
Conjunto de chips
(ChipSet), que
gestionan el
sistema
Tarjeta controladora de
vídeo, gráfico y color
(640*200)
Tarjeta
comunicaciones RS
232C
Tarjeta
controladora
impresora
(Centronics)
Tarjeta controladora de
dos discos duros MFM y
dos disqueteras
Tarjeta para
ampliación de
memoria
Bus con los "slots"
de expansión
Bus Local PC Reloj en
tiempo real, con batería
Teclado mejorado
de 104 teclas
Los IBM PS/2 (1987)
Ante la situación de competencia en la que se vio inmersa IBM, actuó de
dos formas, la primera fue exigir a todos los fabricantes
que le habían copiado sus productos el pago de los
"royalties" correspondientes, a lo cual, dado el inmenso
poder de IBM, no se negaron, y por otra parte diseñar una
nueva línea de equipos, legalmente muy difíciles de copiar
por su gran detalle de patentes. De esta forma nacieron
los IBM PS/2.
Una de las innovaciones de estos equipos era el bus a 32
bit, podían incluir CPU Intel 386, muy
mejorado, en el que se introducían las
tarjetas de expansión, pues IBM lo
cambió
por
completo,
llamándole
"Microchannel", lo cual dio lugar a los
equipos
con
arquitectura
MCA
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
5
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 6 de
167
(Arquitectura Microcanal). Otra innovación fue el cambio de tipo de
monitores, y por lo tanto de controladora, se introdujeron los monitores
analógicos, con una resolución superior a los previamente empleados
(digitales) y con una variedad de colores muy superior. Estas dos
innovaciones supusieron que no valía nada de lo anterior y que además
los clónicos, en principio se verían desplazados del mercado.
A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con
mejoras significativas frente a sus predecesoras.
Simultáneamente a la aparición de estos equipos se comercializó un
nuevo sistema operativo denominado OS/2, desarrollado entre IBM y
Microsoft, aunque las versiones posteriores fueron creadas por IBM;
actualmente ya no se comercializa.
A su vez Compaq creó un bus específico para sus equipos de gama alta,
el denominado Triflex, que comprende tres buses interconectados, uno
de 128 bit para la memoria, otro de 64 bit para uno o dos
microprocesadores 486 (a 267 MB/s) y un bus EISA (que se describirá
en el apartado siguiente).
El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM,
está claro, pues una nueva generación de equipos que comercializó
posteriormente, para uso doméstico, los PS/1, no utilizaban arquitectura
MCA. A su vez como no logró frenar el avance de los clónicos, IBM
decidió comercializar clónicos de países asiáticos, con la marca Ambra,
lo cual acabó en fracaso al poco tiempo.
Actualmente IBM ha cerrado las divisiones de PC's domésticos, en varios
países, debido a la baja cuota de mercado que alcanzan, aunque
permanece en tercer lugar por número de PC's vendidos a nivel mundial,
por detrás de Dell y Hewlett Packard.
EL BUS EISA
Dado que la arquitectura MCA era muy
cerrada, un grupo de fabricantes de
microordenadores,
AST
Research,
Compaq Computer, Epson, HewlettPackard, NEC, Olivetti, Tandy, WYSE, and
Zenith Data Systems, decidieron crear un
bus con prestaciones superiores al ISA,
pero que a su vez fuera compatible con
él, esto dio origen al bus EISA (Extendido ISA). Sus características eran:
32 bit, ancho de banda de 33 MO/s y frecuencia de reloj 8 MHz.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
6
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 7 de
167
EISA sólo se ha usado en los microordenadores de gama alta y ha
tenido poca difusión, a pesar de sus ventajas sobre ISA y a valer las
tarjetas de expansión existentes, lo cual repercutió en que no se
abarataran los precios.
De forma que en el año 1992 la situación era la siguiente:
Bus ISA, un auténtico cuello de botella
Bus MCA, muy restringido y sin difusión al gran público
Bus EISA, sólo usado en equipos de gama alta
Bus Local PC existiendo demanda para un ancho de banda aún mayor,
lo cual daría origen a otros buses.
Bus Local VESA (VLB)
Es una extensión de la arquitectura tradicional del PC, dado que el bus
ISA era cuello de botella, la solución es conectar algunos dispositivos
directamente a la CPU, mediante un bus conocido como bus local. Este
ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o
386SX y 32 bit en un 386DX o 486), por lo que eran realidad las
velocidades elevadas. Lo ideal es conectar a este bus las controladoras
de vídeo y de disco duro, mientras que otras tarjetas que no requieren
grandes velocidades se mantienen en el bus ISA.
Surgieron algunos problemas, pues la CPU no puede soportar la
conexión directa de más de dos o tres tarjetas, además el diseño de la
placa base ha de hacerse de forma que las distancias sean mínimas
para evitar retrasos. También es conveniente usar memorias caché.
Su principal ventaja es que cuadruplican el ancho de banda, llegando a
133 MB/s. VESA es el acrónimo de la Asociación de Fabricantes de
Controladoras de Vídeo (Video Electronics Standars Association), que
agrupa a más de 120 fabricantes, y fueron los que lo propusieron,
disponible desde finales de 1992 y desde 1996 fuera de uso.
Este bus va a la misma
velocidad
que
el
procesador,
siendo
una
solución sencilla, que no
incluye soporte de DMA ni
de interrupciones, lo que
obliga a la mayoría de las
tarjetas a estar conectadas
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
7
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 8 de
167
a los dos buses, el ISA y el VESA, para aprovechar del primero las
caracteristicas de E/S y del segundo el ancho de banda.
Al salir al mercado las placas madre con bus VESA, su precio era algo
superior al de las con bus ISA, hubo una época en que dominaron el
mercado, pero han desaparecido del mercado, frente al bus PCI. Para
equipos Pentium sólo se llegaron a fabricar algunas placas VESA.
Bus Local PCI
PCI es abreviatura de "Peripheral Component Interface", diseñado por
Intel. En 1992 Intel y otras compañías formaron el PCI Special Interest
Group para promocionar, supervisar y mejorar el desarrollo de PCI
como estándar de bus local abierto y no propietario. Este grupo cuenta
con más de 160 fabricantes. Es una solución completa, dado que a
diferencia del VESA incluye ventajas como el soporte de interrupciones
y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo
tanto un coste superior.
Las especificaciones del bus local PCI ofrecen un número de beneficios
clave:
Altas prestaciones
Al contrario del bus local VESA que sólo está pensado para acelerar las
aplicaciones gráficas, PCI es una solución de sistema global. Proporciona
mayores prestaciones para los adaptadores de redes, unidades de disco
duro, vídeo animado, gráficos y otros periféricos que requieren gran
velocidad.
Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de
datos de 32 bit y ancho de banda de 132 MB/s, frente a 5 MB/s del bus
ISA.
Compatibilidad
Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA,
y a veces también se encuentran placas que incluyen el VESA.
A su vez cualquier tarjeta PCI funcionará con cualquier sistema
compatible PCI, sin que importe el tipo de bus de expansión o Bus Local
PC de CPU en uso.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
8
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 9 de
167
Independencia del procesador
La arquitectura independiente del procesador de PCI dispone de un
diseño único de tampón intermediario entre el subsistema de la CPU y
los periféricos. Lo normal es que si se añaden a la CPU más dispositivos,
se degradan las prestaciones y baja la fiabilidad. El uso del tampón
permite a los usuarios ampliar su sistema al añadir múltiples
dispositivos periféricos e introducir variaciones de prestaciones a
diferentes velocidades de reloj.
El diseño independiente del microprocesador aseguran que los diseños
de las placas no se quedarán
obsoletos.
Soporte
flexible
de
plataforma
PCI proporciona una solución
de bus local económica para
cualquier tipo de equipo, no
sólo los normales, sino para
los servidores y los portátiles
Rentabilidad
PCI se diseñó con un objetivo
de bajar los costes globales de los desarrollos. Utiliza "chips", ya sean
fabricados por Intel o por otras empresas como VIA y Opti, altamente
integrados, para incorporar funciones de sistema como controladores de
DRAM y caché, eliminando costes y espacio asociados con la circuitería
de soporte, Frente a los chips VESA con 80 patillas, los PCI son más
pequeños, pues multiplexan los buses de datos y direcciones.
Desarrollos posteriores del bus PCI
Dado que la arquitectura de este bus es muy flexible, se efectuó un
desarrollo específico para equipos de aplicaciones industriales. Empresas
de dicho entorno crearon unas especificaciones dando lugar al
denominado Compact PCI, que ofrece la posibilidad de diseñar
ordenadores con dimensiones reducidas, (placas de 160 * 100 mm)
soportando ambientes agresivos. Otra de las ventajas es que se pueden
crear puentes con otros buses estándares en la industria, como VME y
STD.
La versión 2.2 de las especificaciones, ofrece como novedad más
importante, que los nuevos equipos de acuerdo con esta versión,
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
9
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
Página 10 de
167
S03modulos_0701.doc
permiten el intercambio de placas en el bus, sin necesidad de apagar el
ordenador. La última versión está operativa desde junio de 2004 y se
denomina PCI Express, siendo muy superior en prestaciones respecto al
bus AGP, que se creó para mejorar la velocidad de acceso de los
controladores gráficos al microprocesador del ordenador.
Comparación entre buses
Nombre
Nº bit
MHz
Ancho
MB/s
ISA
16
8
<4
MCA
32
10
33
VESA
64
=CPU
133
PCI
32
33
133
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
10
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 11 de
167
SECCIÓN 2: LA FUENTE DE ALIMENTACIÓN (PRÁCTICA)
LA FUENTE DE ALIMENTACION.
Cuando la caja del ordenador
está abierta se pueden ver las
diferentes partes del PC: la
placa madre, las unidades de
disco, la tarjeta de video y la
fuente de alimentación. La
fuente de alimentación es una
caja metalica con cables de
diferentes colores saliendo de
ella.
Entre una fuente XT y una AT
no hay diferencias. Puede
existir una notable ampliación del tamaño de su alojamiento, pero la
circuiteria sigue siendo la misma, las tensiones son las mismas y las
disposiciones de las salidas de tensiones también, por más que cambien
los colores de los cables (como en el caso de las Compaq o IBM). Los
colores no son normas establecidas, sin embargo en la tabla superior se
muestran los colores típicos. Ahora bien, ¿en que se diferencian las
circuiteria de las XT/AT con las ATX? La diferencia fundamental está en
que no hay llave de encendido, ya que se realiza un encendido por
"software" a través de líneas de control, de resto, el primario no cambia
para nada, una resistencia de más o un transistor adicional para reforzar
las corrientes o hacerlas más confiables en la conmutación del par de
transistores del lado del primario. Otra diferencia fundamental es que EL
PRIMARIO ESTA SIEMPRE FUNCIONANDO A LOS 110/220 CON
TODAS SUS CAPACIDADES. La placa base de la PC, es la que a través
de un pulso, le da la orden de encendido pleno a la fuente y es cuando
uno escucha el típico sonido del ventilador, eso implica que la fuente
esta entregando, aun apagada, dos valores de tensión:
Los 3,3 volts a la CPU
Los +5 volts de mantenimiento
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
11
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 12 de
167
Lo cual significa que con la fuente enchufada a la red no se debe tocar la
placa base, ya que ésta recibe aún alimentación. En ciertos casos
incluso puede estar funcionando la CPU y la memoria, denominado
modo Sleep o de espera, por lo que se puede averiar algo si
manipulamos el ordenador así. No obstante hay que mencionar que si
apagamos el ordenador completamente, sin activar el modo de espera,
sólo ciertas zonas de la placa base estarán funcionando para realizar el
arranque por lo cual, siempre es recomendable desconectar la fuente
para realizar cualquier tipo de mantenimiento. Un ejemplo de las
consecuencias que las fuentes ATX provocan en los servicios técnicos sin
la debida precaución es que en muchos casos el ordenador se arranca
sólo al insertar alguna placa en los slots de expansión, o viceversa, con
el consecuente peligro de avería. Si en algún caso la fuente no se apaga
al pulsar el botón de apagado hay que dejar pulsado éste hasta que se
apague.
Adicionalmente una fuente XT/AT solo tiene las tensiones +5 +12 -5 -12
y la tensión de control PG (+5 con carga en los +5, cable rojo).
Las ATX tiene las mismas tensiones además de la de +3,3 volts, tres
cables de color naranja y cambia el color de naranja de los +5 PG
(mantiene esta misma tensión) por otro color que en la mayoría de los
casos es de color gris, y además incrementa un cable mas de color
normalmente verde, que es el arranque por software de la fuente (la
placa base la manda a masa, o sea a uno de los tantos negros que salen
de la fuente).
Para ver si la fuente esta bien solo hay que puentear el cable verde con
uno de los negros, previo a cargar la fuente con una lámpara de 12 v /
40 w sobre el cable rojo y un negro de la fuente, para luego medir que
las tensiones estén presente
Primario
Secundario
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
12
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
I.
Página 13 de
167
FUENTE AT
Pin
1.
Función
Power
Good *
Color
Naranja
2.
3.
+5Vdc
+12Vdc
Rojo
Amarillo
4.
-12Vdc
Azul
5.
6.
Tierra
Tierra
Negro
Negro
7.
Tierra
Negro
8.
Tierra
Negro
9.
-5Vdc
Blanco
10.
+5Vdc
Rojo
11.
+5Vdc
Rojo
12.
+5Vdc
Rojo
II.
FUENTE ATX
Vista Frontal
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
Vista Posterior
13
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Color
Señal Pin Pin Señal
Página 14 de
167
Color
Naranja* +3.3V 11
1
+3.3V
Naranja
Azul
–12V
12
2
+3.3V
Naranja
Negro
GND
13
3
GND
Negro
Verde
PS_On 14
4
+5V
Rojo
Negro
GND
15
5
GND
Negro
Negro
GND
16
6
+5V
Rojo
Negro
GND
17
7
GND
Negro
Negro
–5V
18
8
Power_Good Gris
Rojo
+5V
19
9
+5VSB
(Standby)
Violeta
Rojo
+5V
20
10
+12V
Amarillo
* Puede tener también un segundo cable café o naranja que sensa el
voltaje de 3,3 voltios para regularlo
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
14
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 15 de
167
Formatos de placas base
Baby AT:
Este formato está basado en el original del IBM PC-AT, pero de
dimensiones más reducidas gracias a la mayor integración en los
componentes de hoy en día, pero físicamente compatible con aquel.
Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de
las cajas que las soportan, aunque esta ventaja desaparecerá a medida
que se vaya popularizando su contrincante.
Leyendo las ventajas
de las placas ATX se
pueden entrever los
inconvenientes
de
dicha arquitectura.
La especificación BabyAT es esencialmente la
misma que la de la
placa del IBM XT, con
modificaciones en la
posición de los
agujeros de los
tornillos para poder
encajar en una carcasa
de tipo AT.
Virtualmente todas las
placas AT y Baby-AT usan el mismo conector para el teclado (DIN de 5
pins). Las placas Baby-AT encajan en todo tipo de carcasas excepto en
las de perfil bajo o extrafinas.
Este formato debe su éxito a la flexibilidad de su diseño, aunque dicha
flexibilidad sea así mismo su principal fuente de problemas, por ejemplo,
las ranuras de expansión se sitúan generalmente en la parte posterior
izquierda de la placa colocando el microprocesador justo frente a las
mismas. Esto era perfectamente válido cuando los chips aún eran lentos
y disipaban poco calor, pero el aumento de velocidad de los mismos
obligó posteriormente a la incorporación de componentes capaces de
refrigerarlos en lo posible. Tales componentes suelen dificultar la
instalación de las tarjetas de expansión más largas, bloqueando algunos
de los slots.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
15
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 16 de
167
El mantenimiento o actualización de determinados componentes se
convierte poco menos que en un castigo cuando es preciso desmontar
medio ordenador hasta que se puede llegar a ellos con holgura. Es lo
que sucede, generalmente, con los zócalos de memoria, que se
encuentran tapados por una maraña de cables y fajas o, incluso, por las
propias unidades de almacenamiento (disqueteras o discos duros).
Por si esto no fuera suficiente, el propio diseño Baby-AT dificulta la
integración de componentes adicionales, como controladora gráfica,
controladora de sonido o soporte para red local, aunque en los últimos
tiempos los fabricantes parecen haberse enfrentado con éxito a dicho
problema, si bien en algunas ocasiones nos encontramos con placas que
dan extraños errores de comportamiento frente a determinados
programas o sistemas operativos.
Formato ATX:
El formato ATX se ha pensado (al igual que el Baby-AT) para que los
conectores de expansión se sitúen sobre la propia placa, con lo que los
equipos seguirán teniendo un tamaño similar al de los actuales, aunque
para discos más compactos también se ha definido una versión más
reducida denominada mini-ATX (de unos 280 por 204 milímetros).
Eso en cualquiera de ambos se permite la utilización de hasta 7
ranuras de expansión de tipo ISA o PCI, localizadas en la parte izquierda
de la placa, mientras que el zócalo del procesador se ha desplazado a la
parte posterior derecha junto a la fuente de alimentación (que también
se ha visto renovada).
De esta forma los elementos de refrigeración dejan de ser un obstáculo,
mismo tiempo que el micro se beneficia del flujo de aire adicional que
representa el ventilador de la fuente.
Este formato también permite que elementos como los zócalos de
memoria queden ahora más accesibles, al tiempo que reduce la cantidad
de cables presentes en interior del equipo, al situar los conectores de las
controladoras de disco justo debajo de las unidades de almacenamiento.
Esto tiene la ventaja añadida de eliminar el peligro de interferencias,
algo que sucede a medida que aumentan las frecuencias de
funcionamiento de los PC.
PREGUNTAS PARA RESOLVER EN CLASE
¿Cuáles son los motivos para que una tecnología perdure?
¿Qué parámetros miden el desempeño de una Motherboard, una
memoria y de los buses?
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
16
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 17 de
167
¿Qué parámetros miden el desempeño de un disco duro y otros
dispositivos de almacenamiento?
¿Cuál ha sido el objetivo de las nuevas tecnologías en su momento
de aparición?
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
17
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 18 de
167
MÓDULO # 3: Fuente y motherboards
OBJETIVOS
Identificar las partes internas de una fuente de voltaje y las
conexiones externas.
Explicar la forma de detectar daños en una fuente y posibles
problemas.
Introducir el concepto de bus como un estándar y explicar los
diferentes tipos de conectores de expansión para módulos o
tarjetas.
Explicar el concepto de tasa de transferencia de información y
establecer las comparaciones entre diferentes dispositivos.
SECCIÓN 1: LA FUENTE DEL PC (PRÁCTICA)
La línea de potencia: Fase, neutro y tierra.
Tipos de interruptores AT y ATX.
Conexión interna del primario de la fuente, conexión del switch.
Secundario de la fuente de voltaje, conectores y voltajes de salida.
Medición de voltajes en una fuente, daños comunes.
El ventilador de la fuente, potencia máxima de salida.
Instalación de la fuente en la caja.
NOTA: Al finalizar la clase se debe entregar un resumen con los
procedimientos y explicaciones desarrollados
SECCIÓN 2: MOTHERBOARDS: BUSES, SOCKETS Y SLOTS (TEÓRICA)
El Bus y las ranuras de expansión.
Son el conjunto de líneas o caminos por los cuales los datos fluyen
internamente de una parte a otra de la computadora (CPU, disco duro,
memoria). Puede decirse que en las computadoras modernas hay
muchos buses, por ejemplo entre los puertos IDE y los drives, entre una
placa Aceleradora de video y la memoria Ram, entre el modem y el
Chipset, etc. Pero Los buses básicos son:
a) El bus interno (bus de datos), o sea el que comunica los diferentes
componentes con la CPU y la memoria RAM, formado por los hilos
conductores que vemos en el circuito impreso de la placa, y el bus
de direcciones.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
18
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 19 de
167
b) El bus de expansión constituido por el conjunto de slots o ranuras
(de expansión) en donde se insertan placas independientes de
sonido, video, modem, etc.
De la velocidad de transmisión del bus interno depende la selección de
algunos componentes como el Microprocesador y la memoria Ram en
una motherboard, entendiéndose por ejemplo que una PLACA BASE
cuya velocidad de transferencia es de 100 MHz, no admite procesadores
Pentium IV (que necesitan buses con mayor velocidad de transmisión) ni
módulos de memoria que trabajan exclusivamente en buses con
velocidad de 133 MHz.
Por otra parte es importante resaltar la diferencia de conceptos que hay
entre: numero de líneas de un bus (16, 32, 64 bits) y la frecuencia de
trabajo del bus. La multiplicación de estos dos factores representa el
troughput (conocido como ancho de banda) y se mide en Mb/s.
Todo bus local esta compuesto de dos áreas: datos y direcciones. El
bus de datos lo forman las líneas dedicadas a la transmisión de señales
u ordenes, el bus de direcciones lo constituyen las líneas que dan a
conocer las posiciones de ubicación de los datos en la memoria
(registros).
1. Buses actuales.
En
conjunción
con
la
Informática,
la
electrónica
innova
permanentemente para crear nuevas y más eficientes rutas de
comunicación entre los PC y sus periféricos. Muchas de estas vías
pueden realmente llamarse buses entre
tanto que otras solo deben clasificarse
como puertos.
A continuación una
descripción
de
las
principales
tecnologías empezando por las de
mayor relevancia.
BUS AGP. Accelerated Graphics Port.
Se trata de un bus independiente del
bus general constituido por un slot
específico para tarjetas gráficas. Es un
bus de 32 bits que trabaja a 66 MHz,
pero tiene la posibilidad de doblar o cuadruplicar las características
básicas, hasta una tasa de transferencia máxima de 1064 Mbits por
segundo. Puede decirse que no es un bus en el sentido estricto de la
palabra sino más bien una extensión de la norma PCI, razón por la cual
en algunos aspectos es idéntico a aquel. Actualmente es un puerto de
uso exclusivo para dispositivos gráficos de alta velocidad.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
19
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 20 de
167
BUS USB. 1996. Universal serial bus. Es un nuevo estándar para
comunicaciones serie que resuelve muchos de los inconvenientes de los
antiguos puertos COM (dificultades en la adaptación a un puerto COM
libre, conflicto de los vectores de interrupción IRQ, etc.). Presenta
muchas ventajas frente a sistemas tradicionales: velocidades de trabajo
hasta de 480 Mb/s (USB 2.0), incluye alimentación eléctrica para
dispositivos con bajo consumo de energía ( alrededor de los 5 voltios),
permite conectar hasta 127 dispositivos, todos ellos compartiendo el
mismo canal; permite realizar conexión y desconexión en "caliente" (sin
apagar el equipo), permite utilizar cables de hasta 5m de longitud para
dispositivos de alta velocidad. Actualmente todos los PCs disponen de
por lo menos un par de salidas USB y muchos dispositivos, como
impresoras, ratones, escáneres, webcams, equipos de fotografía digital,
etc. que antes se conectaban a través de puertos COM o LPT lo hacen
ahora mediante USB.
BUS SCSI. 1980, 1986. Small Computer System Interface. Es la
interface de mayor capacidad, velocidad y estabilidad para conectar
dispositivos directamente a una motherboard. En las computadoras
desktop, SCSI es una interface pues se fabrica sobre una placa que se
inserta en un slot de la motherboard (actualmente en slots PCI). Esta
independencia física del microprocesador tiene la gran ventaja de hacer
que los dispositivos se direccionen lógicamente en contraposición al
direccionamiento físico que utiliza IDE. La consecuencia inmediata es
que los dispositivos quedan liberados de las imposiciones que el Bios
pudiera imponer pues SCSI se encarga de hacer el trabajo completo de
comunicación y configuración. Esta capacidad lo ha hecho el preferido
en equipos en los que se requiere estabilidad y alta velocidad de
transmisión, como los servidores.
La última versión de SCSI es la Wide Ultra2 SCSI, que usa un bus de 16
bits, un ancho de banda de 80MB/s y trabaja con cables planos de 68
hilos.
La interfase al trabajar como un dispositivo I/O (de entrada y salida)
permite en teoría conectar 8 dispositivos simultáneamente, en una
conexión en la que cada dispositivo se une al siguiente y en donde cada
dispositivo tiene su propio ID ante el host. El mayor uso de SCSI se da
en la conexión de discos duros, tape drives, unidades ópticas, escáneres
e impresoras. Los dispositivos externos que trabajan con interface SCSI
tienen dos puertos: uno para la entrada del cable y otro para conectarse
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
20
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 21 de
167
al siguiente dispositivo. El último elemento debe cerrar la cadena
mediante un circuito 'terminador' para que la conexión funcione.
Bus 1394 FireWire
En 1995 el "Institute of Electrical and Electronics Engineers (IEEE)"
estableció las bases de un nuevo estándar, el bus serie de elevadas
pretaciones IEEE1394. Desde 1986 se ha tendido a unificar los
diferentes buses en serie, la aparición de nuevos dispositivos grandes
consumidores de un gran ancho de banda, como los DVD, ha dado lugar
al nacimiento de las especificaciones del bus Firewire. Esta norma se
puede resumir en los siguientes puntos:
 Transferencia de datos en tiempo real para aplicaciones
multimedia.
 Flujos de transferencia de hasta 200 Mb/s, ampliable en el
futuro hasta 800 Mb/s.
 Conexión en caliente (sin desconectar la alimentación
eléctrica), sin pérdida de datos.
 Topología de red flexible, incluyendo al de bus y en grafo.
 Sin necesidad de terminadores en los extremos.
 Conectores comunes para todos los componentes
 Posibilidad de conectar entre sí hasta 63 dispositivos
Presenta ventajas frente al resto de buses, incluso frente al USB,
aunque no puede competir en precio. Frente al bus PCI, de momento es
más lento. Los productos más usuales con este bus son, cámaras
digitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT
(Digital Audio Tape), CD's, ZIP's, sistemas de almacenamiento
magnetoópticos e impresoras.
PREGUNTAS PARA RESOLVER EN CLASE
Entregar un resumen de lo visto en la sección práctica de la clase
(sección 1)
Realizar una tabla comparativa que indique el nombre de los buses, sus
tasas de transferencia, su fecha de aparición – desaparición.
ACTIVIDAD EN CLASE
Desarmar y armar la fuente y el regulador de voltaje
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
21
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 22 de
167
Conectar el switch de la fuente
Ensamblar la fuente en la caja
Entregar un resumen por grupo que contenga:
o Explicación sobre FSB
o Otros tipos de buses (PCI-X PCI Express), cuál es el
dispositivo que lo usa?
o Explicación del concepto de puerto
o Explicación de qué es un bus local.
o Diferencia entre MBps y Mbps
TAREA DE CONSULTA
Consulte cuáles son actualmente las velocidades más altas de
transferencia de información para una memoria RAM, un disco
duro y un bus local. Realice una tabla comparativa, por años, que
contenga todos los tipos de buses, su velocidad de transferencia y
uso.
MÓDULO # 4: Motherboards
OBJETIVOS
Conocer diferentes tipos de Motherboards de las primeras
generaciones.
Ensamblar un equipo con procesador 80486 a su mínima
capacidad.
Conocer los mínimos requisitos de componentes de hardware para
revisar el funcionamiento de un equipo.
Proporcionar
las
bases
teóricas
de
los
componentes
diferenciadores de una motherboard.
SECCIÓN 1: 8088 HASTA 486 (PRÁCTICA)
Al finalizar esta parte, se debe entregar un informe que contenga los
procedimientos desarrollados en la descripción y montaje de los
diferentes equipos trabajados.
SECCIÓN 2: MOTHERBOARDS: LA BIOS Y EL CHIPSET (TEÓRICA)
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
22
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 23 de
167
La Motherboard se distingue bajo varios nombres en computación: placa
base, placa principal, placa madre y main board. Algunas compañías,
como IBM, se refieren a la tarjeta madre como tarjeta del sistema o
tarjeta
plana.
Los
términos
tarjeta
madre,
tarjeta principal,
tarjeta
del
sistema o tarjeta
plana
se
emplean
indistintamente.
La placa base es
el esqueleto de
nuestro
ordenador.
En
sus ranuras van
fijados todos los demás componentes, y su calidad influirá
sustancialmente en la velocidad del equipo, además de sus
posibilidades. Se puede afirmar que es el componente más importante
en un PC. Dado que representa un organismo central, debemos
comprender como funciona y como está distribuida a fin de diagnosticar
acertadamente los problemas que se derivan de ella.
Algunos fabricantes hacen sus sistemas tan incompatibles físicamente
con otros sistemas como sea posible, de tal suerte que las refacciones,
reparaciones y actualizaciones son prácticamente imposibles de
encontrar o realizar - excepto, por supuesto, con el fabricante original
del sistema, a un precio significativamente más alto del que costaría la
parte equivalente en un sistema estándar. En otras palabras, actualizar
o reparar estos sistemas mediante sustitución de la tarjeta madre u otro
componente es difícil y por lo regular no es costeable.
2.
La BIOS
La BIOS (Basic Input Output System, Sistema de entrada/salida básico)
es una memoria ROM, EPROM o FLASH-Ram la cual contiene las rutinas
de más bajo nivel que hace posible que el ordenador pueda arrancar,
controlando el teclado, el disco y la disquetera permite pasar el control
al sistema operativo.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
23
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 24 de
167
Además, la BIOS se apoya
en otra memoria, la CMOS
(llamada así porque suele
estar
hecha
con
esta
tecnología), que almacena
todos los datos propios de la
configuración del ordenador,
como pueden ser los discos
duros
que
tenemos
instalados,
número
de
cabezas, cilindros, número y
tipo de disqueteras, la fecha,
hora, etc..., así como otros
parámetros necesarios para el correcto funcionamiento del ordenador.
Esta memoria está alimentada constantemente por una batería, de
modo que, una vez apaguemos el ordenador no se pierdan todos esos
datos que nuestro ordenador necesita para funcionar.
Ahora todas las placas suelen venir con una pila tipo botón, la cual tiene
una duración de unos 4 ó 5 años (aunque esto
puede ser muy variable), y es muy fácil de
reemplazar. Antiguamente, las placas traían
una pila corriente soldada en la placa base, lo
que dificultaba muchísimo el cambio, además
de otros problemas como que la pila tuviera
pérdidas y se sulfataran ésta y la placa.
Además, la BIOS contiene el programa de
configuración, es decir, los menús y pantallas
que aparecen cuando accedemos a los parámetros del sistema, pulsando
una secuencia de teclas durante el proceso de inicialización de la
máquina.
3.
El Chipset
El juego de chips de una placa base, o chipset, es posiblemente su
componente integrado más importante, ya que controla el modo de
operación de la placa e integra todas sus funciones, por lo que podemos
decir que determina el rendimiento y características de la misma.
Determina lo que puede hacer el ordenador, desde el soporte para
varias CPU, hasta o el tipo de memoria que se puede utilizar. Es el
encargado de comunicar entre sí a todos los componentes de la placa, y
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
24
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 25 de
167
los periféricos. Una placa puede disponer de zócalos DIMM, pero si el
chipset incluido no los soporta, no podrán utilizarse. El chipset incluye
circuitos como el controlador de interrupciones, los controladores DMA,
el chip temporizador, controladoras de disco duro, entre otros; además
determina algunas características básicas de la placa base, que son
inalterables. Por ejemplo el tamaño máximo de memoria que es capaz
de soportar, o los tipos y velocidades de bus, por esto, conocer sus
características es muy importante. Mediante este elemento se han
integrado en unos pocos componentes los que antes se encontraban un
número de chips independientes relativamente elevado. Con el paso del
tiempo, en el chipset se han ido incluyendo algunos nuevos tipos de
dispositivos que han surgido con el avance tecnológico, como es el caso
de las controladores de bus USB, el bus AGP, el bus PCI, funciones de
administración de energía, etc. Este proceso de integración va a
continuar en el futuro.
Intel fabrica los modelos oficiales para sus procesadores,
aunque otras marcas como VIA, SiS o ALI fabrican clónicos a un
precio más reducido.
En el caso del Pentium ha habido un gran grupo de
chipsets, no sólo los Tritón, sino los Zappa,
Endeavour.
Hay otros detalles a tener en cuenta; por ejemplo,
ya es común la inclusión de un conector para
ratones y teclados de tipo PS/2, de puertos
infrarrojos (que permiten la comunicación, sin
cables, con dispositivos de este tipo) e incluso el
bus Firewire o IEEE1394. Algunos modelos
incorporan diversos añadidos, como la inclusión de
un chip de aceleración gráfica 3D de Intel, una tarjeta de sonido
Yamaha o una controladora SCSI. No son aconsejables, pues disponen
de menos calidad que los periféricos adquiridos independientemente.
También pueden encontrarse chips que miden la temperatura del
procesador y el ventilador, y BIOS capaces de controlar la desconexión
temporal de periféricos, cuando no se utilizan, para ahorrar energía.
Otro detalle que se suele olvidar, pero que no carece de importancia, lo
tenemos en el software que debe acompañar a la placa, los
omnipresentes drivers; ya que se recomiendan para dispositivos como la
controladora de disco duro.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
25
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 26 de
167
Tabla comparativa de chipsets Intel para Pentium
Chipset
430FX
Memoria
Max.
Tipo
cacheable SDRAM EDO IDE
128MB.
128MB.
-
ATA
430HX 512MB.
512MB.
-
ATA
430VX
128MB.
64MB.
ATA
430TX
256MB.
64MB.
ATA33
USB
-
Tabla comparativa de chipsets Intel para Pentium II
Memoria
Chipset
Aconsejado
para
440LX
Pentium II a 66 Mhz de
bus.
440BX
Pentium II con bus a
100 Mhz.
1GB.
440EX
Celeron
256MB.
440GX
Xeon
2GB.
450NX
Xeon servidor
8GB.
Max.
SDRAM EDO
AGP
1GB. EDO
512MB.
SDRAM
-
-
Desde finales del 1996 podemos encontrar el ATX. No mejora la
velocidad, sino la flexibilidad, integración y funcionalidad. Reorganiza la
distribución de los componentes de la placa base, de forma que al
insertar tarjetas no se tropiecen con chips como el procesador. Además,
se acorta la longitud de los cables y se mejora la ventilación de los
componentes. También cambia el conector de alimentación para la placa
base y la forma de la caja, por lo que tendremos que cambiar la caja
externa antes de comprar la placa. El ATX permite integrar componentes
en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen
tener una calidad bastante mediocre. Por tanto, si queremos instalar
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
26
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 27 de
167
tarjeta gráfica y de sonido independientes, tendremos que buscar una
placa base ATX sin estos componentes integrados en ella.
PREGUNTAS PARA RESOLVER EN CLASE
¿Qué componentes deben estar instalados como mínimo en un
equipo para poder verificar su funcionamiento?
¿Qué significa northbridge y southbridge y cómo se relacionan con
el FSB?
¿Cuáles fueron las funciones típicas por épocas y cuáles se fueron
agrgando a la motherboard?
Haga una lista de los modelos y fabricantes de chipset vistos en
clase.
ACTIVIDAD EN CLASE
Realice un diagrama completo de la motherboard(layout), identificando
plenamente la BIOS, el chipset las ranuras, socket y conectores.
MÓDULO # 5: Máquina 486 – Procesadores y RAM
OBJETIVOS
Conocer las opciones de configuración básicas de la BIOS a través
del programa SETUP.
Proporcionar la teoría sobre microprocesadores y memorias RAM.
SECCIÓN 1: Práctica ensamble equipo 486 (set up). (PRÁCTICA)
LA BIOS es una memoria especial que contiene las rutinas necesarias
para que el ordenador funcione correctamente y gestione las
operaciones de entrada y salida de datos, de ahí su nombre BIOS, Basic
Input/Output System (Sistema básico de entrada/salida).
Es muy recomendable que se pueda actualizar por software, es decir,
tipo Flash, y que sea lo más reciente posible. Con respecto al programa
de Setup, teniendo en cuenta nuestros conocimientos nos decantaremos
por una BIOS con el mayor número de funciones de configuración
automática posible (detectado de unidades IDE y de sus parámetros,
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
27
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 28 de
167
ajuste automático de velocidades de acceso a RAM y a caché, etc), o por
otro lado, podemos desear un mayor control de sus parámetros para
ajustar al máximo el rendimiento. Una BIOS buena debe permitir
arrancar el ordenador desde varios formatos, como un disquete, un
disco duro IDE o SCSI, un CD-ROM, un puerto USB o desde un puerto
de red. Igualmente, conviene que las funciones automáticas de Plug and
Play puedan configurarse manualmente (asignar IRQ y canales DMA
para los posibles conflictos). Y se deben poder desactivar por Setup los
puertos serie y paralelo, o poder modificar sus direcciones de I/0 e IRQ
para solucionar problemas al instalar nuevos dispositivos. Hay distintos
fabricantes de BIOS. Los más conocidos son Award y AMI. Por norma las
opciones que nos encontramos en estas BIOS son diferentes. Por
ejemplo, ambas tienen la posibilidad de obtener los parámetros de los
discos duros instalados, pero sin embargo, la de Award no tiene la
posibilidad de formatearlos (sólo a bajo nivel) mientras que la BIOS de
AMI sí. La de AMI da la posibilidad de utilizar el ratón, mientras que la
de Award no.
Se accede pulsando la tecla SUPR mientras hace el test de memoria al
arrancar, aunque en otras placas más raras se hace con F1, F12 o
combinaciones de otras teclas. Ante todo hay que decir que no existe la
configuración de BIOS perfecta, sino que cada una de las
configuraciones posibles se hace con un propósito (conseguir la mayor
velocidad en los gráficos, conseguir el funcionamiento de disco duro más
eficiente, el acceso a memoria más rápido). El aumentarle en algo, le
hará bajar en los demás. En realidad la configuración más ideal es la
que viene por defecto, pero esta última suele traer unos valores un
tanto "holgados" para ofrecer máximas compatibilidades. Pongamos un
ejemplo: en las BIOS que soportan RAM y RAM EDO, hay una opción
que permite aumentar la velocidad de este segundo tipo. Sin embargo,
si esa opción la utilizamos con el primer tipo habría problemas, por lo
que la opción determinada es ese acceso un poco más lento, con el fin
de que vaya bien con las dos memorias.
Hay dos métodos para restaurar los valores iniciales en caso de error:
uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los
valores por defecto. La otra opción es factible en el caso de que el
ordenador no arranque. En este caso, habrá que cambiar el jumper de la
placa base que sirve para borrar la CMOS (chip donde la BIOS guarda
sus valores, recuerda que la BIOS está en una memoria ROM, Read Only
Memory -> memoria de sólo lectura). Si carece de dicho jumper, habrá
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
28
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 29 de
167
que quitar la pila de litio que alimenta a la CMOS. A continuación se
listan los valores de menú más comunes:
STANDARD CMOS SETUP
Fecha y hora. Si se tiene Windows 95 OSR2 o Windows 98, ésta será la
hora que te aparecerá en la barra de tareas de Windows, así que pon la
correcta).
Primary Master/Primary Slave/Seconday master/Secondary Slave: si tu
BIOS lo soporta, déjalo en TYPE AUTO para quitarte problemas (lo
detecta todo correctamente) y pasa al siguiente apartado. Si no tienes
auto, sigue leyendo:
TYPE: 1-46, son discos duros predefinidos; USER es el introducido por el
usuario o el detectado por el IDE HDD AUTO DETECTION
(recomendamos usarlo), y AUTO es lo que hemos dicho en el párrafo
anterior.
CYLS, HEAD, SECTOR: son los cilindros, cabezas y sectores. Es muy
importante saberlo, especialmente si la opción IDE HDD AUTO
DETECTION nos presenta las tres opciones del MODE (NORMAL, LARGE
y LBA). Si no los sabes, ya puedes ir comenzando a desmontar el
ordenador y mirar la pegatina del disco duro.
PRECOMP Y LANDZ: son dos valores arbitrarios y casi podemos meter el
número que nos dé la gana sin que afecte al rendimiento. Se puede
poner un 0 (cero) en ambos casos, y en el segundo también un 65535.
Por ejemplo, el LANDZ es el lugar donde se coloca el brazo lector del
disco duro al principio.
MODE: es el método de acceso a los discos duros. NORMAL es el modo
de acceso tradicional, de menos de 528 Mb., LBA es para más de 528
Mb. y LARGE es para discos de 528 Mb. sin LBA. Al menos ésta es la
teoría, pues nosotros tenemos un disco IDE de 6,3 Gb. y el IDE HDD
AUTO DETECTION sólo muestra la opción NORMAL. También aparece
una opción AUTO para que lo detecte solo.
FLOPPY DRIVE A/FLOPPY DRIVE B. Con esto pondremos el tipo de
unidad de disquete que se está utilizando en ese momento, con una
relación entre el tamaño del disquete y su tamaño en pulgadas. Si
tienes una sola unidad recuerda ponerla como A: y dejar la B: vacía
BOOT SECTOR VIRUS PROTECTION: Esto también puede situarse en el
apartado BIOS FEATURES SETUP. Hay que dejarlo en DISABLED sobre
todo cuando instalamos Windows.
BIOS FEATURES SETUP
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
29
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 30 de
167
Aquí suelen diferir unas BIOS de otras. Primero pondremos las opciones
de una BIOS moderna y después las de una BIOS un poco más antigua:
1st Boot Device/2nd Boot Device/3rd Boot Device/4th Boot Device:
Decide el orden en que quieres que el ordenador reconozca las unidades
con los archivos de arranque (recuerda que son el COMMAND.COM,
IO.SYS y MSDOS.SYS). Dichas opcionses pueden ser:
IDE 0: Arranca desde el disco IDE maestro en el canal primario
IDE 1: Arranca desde el disco IDE maestro en el canal segundario
IDE 2: Arranca desde el disco IDE esclavo en el canal primario
IDE 3: Arranca desde el disco IDE esclavo en el canal secundario
Floppy: Arranca desde la(s) unidad(es) de disquete
ARMD FDD/ARM HDD: Arranca desde una unidad LS-120 o ZIP, o desde
un disco IDE maestro en el canal primario
CDROM: Arranca desde una unidad CD-ROM ATAPI (según nuestras
pruebas, puede ser IDE o SCSI)
SCSI: Arranca desde una unidad SCSI (según lo tengamos en la BIOS
de la controladora SCSI)
Network: Arranca desde la red
TRY OTHER BOOT DEVICES: Prueba otras opciones que no haya sido
posible incluir en las 4 anteriores.
QUICK BOOT: Recomendamos poner DISABLED. Lo que hace botear
rápidamente cuando el ordenador está encendido. La opción DISABLED
da tiempo para pulsar la tecla <Del> (es decir, SUPR) mientras hace el
test de memoria, y espera durante 40 segundos a recibir alguna señal
del disco duro IDE (en el caso de que lo tengamos configurado, aunque
este tipo suele ser mucho menor si lo está correctamente. ENABLED
hace que no espere a reconocer el disco IDE, y si no recibe una señal
inmediatamente no lo configurará. Tampoco podremos arrancar la BIOS
pues no saldrá el mensaje de pulsar la tecla <Del>. En este último caso,
para entrar en la BIOS tendremos que apagar y encender el ordenador
con el botón frontal.
ABOVE 1 MB. MEMORY TEST: SÓLO SALE SI LA ANTERIOR OPCIÓN
ESTÁ EN ENABLED. Permite testear o no más allá del Mb. de memoria.
Recomendamos dejarlo en ENABLED, ya que si no hace el test podemos
tener problemas.
BOOT UP NUMLOCK STATUS: ON hace que las teclas de la calculadora
del teclado (a la decha del todo) funcionen como números, y OFF hace
que funcionen como flechas.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
30
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 31 de
167
FLOPPY DRIVE SWAP: Si está en ENABLED cambia la unidad A: por la B:
sin tener que hacerlo con el cable físico. Normalmente déjalo en
DISABLED.
FLOPPY ACCESS CONTROL y HARD DISK ACCESS CONTROL:
Determinan el tipo de acceso a su respectiva unidad. Las opciones son
READ/WRITE o READ-ONLY (Escritura/Lectura o Sólo Lectura). Si no es
por alguna extraña razón, déjalo siempre en READ/WRITE
PS/2 MOUSE SUPPORT: Permite con ENABLED activar el soporte para un
ratón del tipo PS/2 y con DISABLED dejarlo para que funcione
enchufado en un puerto serie. En el caso de que exista un jumper en la
placa base, habrá que unir las patillas 2-3 para activar el soporte PS/2
(normalmente este jumper no suele existir).
PRIMARY DISPLAY: Es el tipo de monitor conectado al ordenador. Puede
ser MONO, CGA 40x25, CGA 80x25, VGA/EGA o ABSENT (Ausente).
Tienes un monitor digamos "normal" pon VGA/EGA si no quieres tener
algunos efectos indeseados.
PASSWORD CHECK también llamada SEGURITY OPTION: Sirve para
poner una contraseña. Tiene tres opciones: ALWAYS es para ponerlo al
iniciar un ordenador (se queda el llamado "prompt" o guión parpadeante
esperando a que lo introduzcamos), SETUP (sólo sale al entrar en la
BIOS) o DISABLED (recomendado) para desactivarlo.
BOOT TO OS/2: Por esta opción en ENABLED si tienes el sistema
operativo OS/2 y quieres que use más de 64 Mb. de la memoria del
sistema. Si no tienes OS/2, déjalo en DISABLED
EXTERNAL CACHE: Permite usar la caché L2 de la placa base.
Recomendamos altamente poner ENABLED, aunque si tienes problemas
no tendrás más remedido que dejarlo en DISABLED.
SYSTEM BIOS CACHEABLE: Cuando se pone en ENABLED (altamente
recomendable) el segmento de memeoria F0000h puede ser escrito o
leído en la memoria caché. El contenido de este segmento de memoria
se copia siempre de la ROM de la BIOS a la RAM del sistema para una
ejecución más rápida.
VIDEO SHADOW: Cuando se pone ENABLED, la BIOS se copia a la
memoria del sistema e incrementa la velocidad de vídeo. Puede tener 2
ó 3 opciones: si tiene ENABLED y DISABLED, ponlo en ENABLED; y si
tiene ENABLED, CACHED y DISABLED, pon CACHED. Activarlo puede dar
problemas en sistemas operativos de 32 bits.
C8000-CBFFF Shadow / CC000-CFFFF Shadow / D0000-D3FFF Shadow /
D40000-D7FFF Shadow / D8000-DBFFF Shadow / DC000-DFFFF
Shadow: Son distintos datos extendidos localizados en la ROM que se
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
31
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 32 de
167
copian a su respectivo rango de direcciones en la memoria el sistema.
Normalmente está puesto en DISABLED (lo recomendamos para
usuarios INEXPERTOS - NORMALES), aunque los más EXPERTOS o
simplemente para probar podéis poner algunas opciones en ENABLED a
ver qué pasa.
* otras opciones:
CPU INTERNAL CACHE: Sirve para activar la caché interna del micro, y
siempre hay que ponerlo en ENABLED.
IDE HDD BLOCK MODE: Transfiere los datos por bloques, y lo soportan
los discos de más de 100 Mb.
GATE A20 OPTION: Referente a la RAM, ponlo en ENABLED
MEMORY PARITY CHECK: Hay que ponerlo en DISABLED para las
memorias sin paridad (lo más normal), y ponlo en ENABLED para
verificar el bit de paridad de la memoria RAM. Las únicas memorias con
paridad suelen estar en 486s o Pentium de marca como los IBM.
TYPEMATIC RATE SETTING: ENABLED permite configurar la velocidad de
repeticion y estados de espera del teclado.
TYPEMATIC RATE (CHARS/SEC): Hay que poner el número máximo (30)
para conseguir más caracteres por segundo.
TYPEMATIC DELAY(MSEC): Hau qye poner el mínimo (250) para que el
tiempo de espera sea el mínimo
NUMERIC PROCESSOR: Para activar el coprocesador matemático. Desde
los 486 DX la opción está obsoleta.
CHIPSET SETUP
Este es el apartado donde más difieren unas BIOS con otras, y es el
campo más peligroso y donde quizás puede exprimirse más el
rendimiento. Si es una BIOS de las antiguas aquí se incluirá la próxima
opción de "PCI/PNP SETUP". No cambies estas opciones si no estás
seguro, de hecho, verás que algunas opciones son tan complejas que ni
siquiera nosotros las sabemos:
USB FUNCION: Permite activar o desactivar el soporte USB (Universal
Serial Bus). Ponlo en ENABLED si dispones de un sistema operativo que
lo soporte, como Windows 95 OSR2 + USB Support, Windows 95
OSR2.1 o Windows 98. Si no, déjalo en DISABLED.
USB LEGACY SUPPORT: Con ENABLED se tiene un teclado y ratón USB.
Como lo normal hoy día es no tenerlo, déjalo en DISABLED.
SDRAM CAS LATENCY: Ni idea de lo que es, y tiene las opciones 3, 2,
AUTO. Ponlo en AUTO por si acaso.
DRAM DATA INTEGRITY MODE: Tiene dos opciones: ECC (ponlo si lo
soportan los módulos de memoria) y PARITY (ponlo si no lo soporta)
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
32
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 33 de
167
DRAM TIMING LATENCY: LOW, FAST, NORMAL. Es el tiempo que tarda
el sistema en responder a las llamadas de la memoria. Prueba en FAST
si no tienes problemas y no pierdes estabilidad. Suele traer también una
opción AUTO.
PIPE FUNCTION: Tampoco tenemos ni idea de lo que es, pero como la
opción por defecto es ENABLED, pues déjalo ahí.
GATED CLOCK Esto sirve para controlar el reloj interno del bus de datos
de la memoria. Si está en ENABLED el reloj nunca para, cuando está en
DISABLED se parará el reloj automáticamente si no hay activar en el
bus de datos de la memoria. Pon la opción que quieras, no sabemos cuál
es la mejor.
GRAPHIC APERTURE SIZE: Decide el tamaño del búfer de frames
programable. Esta región no debería sobrepasar al tamaño de RAM
instalada, así que pon un número igual o menor. Cuanto mayor sea,
mejor irá.
VGA FRAME BUFFER. Pues eso, el rango de memoria del búfer de frame.
Ponlo en ENABLED.
VGA DATA MERGE: Unir las palabras lineales del ciclo del búfer de
frames. Ni idea para qué sirve, por si acaso déjalo en DISABLED.
PASSIVE RELEASE: Sirve para activar un mecanismo del puente sur
cuando es PCI Master. La revisón PCI 2.1 requiere que este campo esté
activado. Sólo para usuarios experimentados. Nosotros lo tenemos en
ENABLED y parece que va bien, ponlo tú también sobre todo si tienes un
dispositivo PCI 2.1
ISA MASTER LINE BUFFER: Desactiva o desactiva el búfear linear del
ISA Master. Prueba a ponerlo en ENABLED.
DELAY TRANSACTION: El tiempo para contactar con PCI 2.1. Échalo a
suertes, pero por si acaso escoge DISABLED.
AT BUS CLOCK: Sólo afecta al ISA. Esta opción se usa para selecciona
las configuraciones I/O del reloj del bus. Las configuraciones posibles
surgen de acuerdo con variar el reloj del sistema, por ejemplo, en un
sistema con una velocidad de bus de 50 MHz, selecciona PCICLK/6 que
podría resultar en un bus de velocidad de 8,33 MHz. No conviene
sobrepasar este valor, como mucho 10 ó 12, ya que las tarjetas ISA
funcionan a 8 MHz o menos. Por si esto es muy complicado, déjalo en
AUTO.
otras opciones:
PIPE FUNCTION: La ejecucion de una instruccion de maquina se lleva en
varias etapas (algunas maquinas pueden tener entre 5 y 9 etapas).
Entonces cuando la CPU termina de ejecutar la primera etapa de una
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
33
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 34 de
167
instruccion comienza a ejecutar la segunda etapa, pero tambien
empieza a ejecutar la primera etapa de la siguiente instruccion y asi
sucesivamente. Claramente este metodo de ejecucion es mas rapido,
que si se hicieran una de tras de otra conmpletamente.
L2 CACHE POLICY: Prueba a poner el modo WRITE BACK, que es mejor
que WRITE THRU
DRAM READ/WRITE TIMING: Pon el valor mínimo si nuestra memoria es
de alta velocidad (10-15 ns), para memoria EDO (x222) y para memoria
NO EDO (x333)
POWER MANAGEMENT SETUP
Si tu placa es una ATX de las nuevas, tendrás muchas opciones, tan
curiosas como encender el ordenador por una llamada de teléfono.
General para todas las opciones:
STANDBY MODE: El reloj de la CPU irá a una velocidad más baja, se
desconectarán las disquetes y el disco duro, y el monitor se apagará.
SUSPEND MODE: Todos los dispositivos excepto la CPU se apagarán.
Cada modo de ahorro de energía tiene su respectivo contador. Cuando
el contador llegue a cero, el equipo entrará en modo de ahorro de
energía. Si se detecta alguna señal o evento durante la cuenta atrás, el
contador vuelve al principio de nuevo.
NOTA PARA USUARIOS DE WINDOWS 95 OSR2 y 98:
Recomendamos poner los contadores en DISABLED para que no
interfieran con los contadores de estos sistemas operativos,
además de dejarlo todo en SUSPEND, pues SUSPEND incluye a
STANDBY
Vayamos ahora con las opciones propiamente dichas:
POWER MANAGEMENT/APM: Pon esta opción en ENABLED para activar
las funciones de administración de energía del chipset y APM
(Administración Avanzada de Energía), especialmente si dispones de
Windows 95 OSR2 o 98. ¡Luego no digas que INICIO - SUSPENDER no
te funciona!
GREEN PC MONITOR POWER STATE: Sirve para apagar los monitores
compatibles con Greep PC. Las opciones son OFF, STANDBY, SUSPEND y
DISABLED.
VIDEO POWER DOWN MODE. Para apagar el subsistema de vídeo para
ahorar energía. Las opciones son STANDBY, SUSPEND y DISABLED.
HARD DISK POWER DOWN MODE: Desconecta los discos duros. Las
opciones son las tres del apartado anterior.
STANDBY/SUSPEND TIMER UNIT y STANDBY TIMEOUT. Son los
contadores que os hablábamos antes, el primero para el modo SUSPEND
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
34
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 35 de
167
y el segundo para el modo STANDBY. Ponlo en DISABLED para usar los
del Windows.
SYSTEM EVENT MONITOR BY... Trae unas cuantas opciones, prueba a
ponerlas en YES.
POWER BUTTON FUNCION: Explica el funcionamiento del botón de
encendido externo. SOFT OFF es lo normal, apaga o enciente el
ordenador. GREEN, en cambio, hace que el ordenador entre en Green
Mode.
RING RESUME FROM SOFT OFF: Cuando se activa, el sistema puede
salir del modo inactivo por una señal de teléfono del MODEM.
RTC ALARM RESUME: Decide una hora para que el ordenador salga del
modo de suspensión automáticamente. Si no lo vas a usar ponlo en
DISABLED, o, en el caso de que lo uses pero no quieras poner fecha,
pon el DISABLED en Date.
PCI/PnP SETUP
Estas opciones sirven para arreglar nuestros queridos conflictos de
hardware. En las BIOS más antiguas, cuando el Plug and Pray, ejem..
Play no estaba difundido, suelen estar incluidos en el apartado CHIPSET
SETUP.
PLUG AND PLAY AWARE O/S: Si tenemos un sistema operativo Plug and
Play instalado (Windows 95/98) ponlo en YES.
CLEAR NVRAM ON EVERY BOOT: Cuando se pone en YES, los datos de la
NVRAM se borrar en cada proceso de arranque (boot). Recomendamos
que lo pongas en NO.
PCI LATENCY TIMER (PCI CLOCKS): Son los tiempos de retardo en
acceder a los dispositivos PCI instalados en el respectivo bus. Las
opciones son 32, 64, 96, 128, 160, 192, 224, 248. Prueba a ponerlo en
el mínimo, 32.
PCI VGA PALETTE SNOOP. Sirve para poder hacer que varias tarjetas
VGA operen a la vez en diferentes buses (PCI e ISA), y que puedan
extraer datos de la CPU simultáneamente. El bit 5 del registro de
comandos del espacio de configuración del dispositivo PCI es el bit 0 del
VGSA Palette Snoop (0 es DISABLED). Pon las opciones según lo
siguiente:
DISABLED: Los datos leídos y escritos por la CPU sólo se redireccionan a
los registros de la paleta del PCI VGA. Es decir, que si tienes una tarjeta
gráfica PCI o AGP tendrás que poner esto.
ENABLED: Los datos leídos y escritos por la CPU se dirigen al registro de
paleta del dispositivo PCI VGA y del ISA VGA, permitiendo que los
registros de paleta de ambos dispositivos sean idénticos. La opción
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
35
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 36 de
167
también tiene que estar puesta en ENABLED si alguna tarjeta ISA
instalada en el sistema requiere VGA Palette Snooping.
OFFBOARD PCI IDE CARD: Especifica si existe un controlador PCI IDE
externo en el ordenador. También debes especificar el slot de expansión
PCI de la placa base cuando instalas la tarjeta controlñadora PCI IDE. Si
se usa alguna controladora de este tipo, la controladora IDE de la placa
base automátivamente se desactiva. Las opciones son DISABLED, AUTO,
SLOT1, SLOT2, SLOT3, SLOT4, SLOT5 o SLOT6. Si se selecciona AUTO
se determina el parámetro correcto, lo que fuera los IRQs 14 y 15 a un
slot PCI del PCI local bus. Esto es necesario para soportar tarjetas PCI
IDE no compatibles.
OFFBOARD PCI IDE PRIMARY IRQ: Esta opción especifica la interrupción
PCI usada por el canal IDE primario en la controladora externa PCI IDE.
Las configuraciones son DISABLED (ponlo si no tienes controladora IDE
externa), HARDWIRED, INTA, INTB, INTC o INTD.
OFFBOARD PCI IDE SECONDARY IRQ: Como el anterior, pero el canal
secundario.
Esta opción especifica la interrupción PCI usada por el canal IDE
secundario en la controladora externa PCI IDE. Las configuraciones son
DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED,
INTA, INTB, INTC o INTD.
ASSIGN IRQ TO PCI VGA: Pon esta opción en YES para asignar una IRQ
al controlador VGA en el bus PCI. Las configuraciones son YES o NO.
PCI SLOT 1/2/3/4 IRQ PRIORITY: Estas opciones especifican la prioridad
IRQ paralos dispositivos PCI instalados en los slots de expansión PCI.
Las configuraciones son AUTO, (IRQ) 3, 4, 5, 7, 9, 10 y 11, por orden de
prioidad. Si tus dispositivos son Plug and Play, ponlo en AUTO.
DMA CHANNEL 0/1/3/5/6/7. Te permie especificar el tipo de bus usado
por cada canal DMA. Las opciones son PnP o ISA/EISA. Pon PnP si todos
tus dispositivos son Plug and Play.
IRQ 3/4/5/7/9/10/11/12/14/15 Estas opciones especifican al bus que la
línea IRQ está usada. Estas opciones te permiten reservar IRQs para las
tarjetas ISA, y determinan si se debería quitar una IRQ para cedérselas
a esos dispositivos configurables por la BIOS. El conjunto de IRQs
disponibles se determina leyendo el ESCD NVRAM. Si se deben quitar
más IRQs del conjunto, el usuario debería usarlas para deservarlas a un
ISA/EISA y configurarlo en él. El I/O se configura por la BIOS. Todas las
IRQs usadas por el I/O en la placa están configurados como PCI/PnP.
IRQ12 sólo aparece si la opción de Mouse Support está en DISABLED.
IRQ14 y IRQ15 sólo estarán disponibles si el PCI IDE en la placa
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
36
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 37 de
167
estáactivado. Si todas los IRQs están puestos en ISA/EISA e IRQ14 y 15
están asignados al PCI IDE de la placa, IRQ9 todavía estará disponible
para los dispositios PCI y PnP, debido a que al menos un IRQ debe estar
disponible para ellos. Las opciones son ISA/EISA o PCI/PnP.
RESUMEN: Si todos los dispositivos de vuestro equipo son Plug & Play,
os recomendamos personalmente poner PCI/PnP en todas las IRQs.
INTEGRATED PERIPHERALS SETUP
Por fin, las últimas opciones. En BIOS antiguas estas opciones están
incluidas en Chipset Setup
ONBOARD FLOPPY CONTROLLER: Activa o desactiva la disquetera. Si
tienes disquetera, ponlo en ENABLED.
Onboard Serial Port 1/2
Estos campos configuran los puertos serie en la tarjeta. Hay varias
direcciones de puerto y canales IRQ que pueden ser seleccionados:
3F8/IRQ4: Dirección de puerto 3f8h, IRQ 4
2F8/IRQ3: Dirección de puerto 2f8h, IRQ 3
3E8/IRQ4: Dirección de puerto 3e8h, IRQ 4
2E8/IRQ3: Dirección de puerto 2e8h, IRQ 3
AUTO (recomendado): La BIOS asigna automáticamente direcciones de
puerto y canales IRQ automáticamente
DISABLED: Desactiva el puerto serie. Esto es especialmente últil si
necesitamos la IRQ3 o la 4 para el módem.
SERIAL PORT 2 MODE: Esta opción especifica el modo de operación para
el segundo puerto serie. Sólo aparece si la opción ONBOARD SERIAL
PORT 2 está puesta en AUTO o DISABLED. Las opciones son IR
(infrarrojos) o NORMAL.
IR TRANSMITTER: Esta opción especifica el tipo de transmisión usada
por los dispositivos infrarrojos conectados al segundo puerto serie. Esta
opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en
AUTO o DISABLED. Las opciones son 1.6 uS o 3/16 Baud. No hay
opciones por defecto.
IR DUPLEX MODE: Esta opción especifica el tipo de transmisión usada
por los dispositivos infrarrojos conectados al segundo puerto serie. Esta
opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en
AUTO o DISABLED. Las opciones son HALF o FULL (suponemos que es
similar al full duplex o half duplex de las tarjetas de sonido). No hay
opciones por defecto.
IR RECEIVER POLARITY: Esta opción especifica el tipo de recepción
osada por los dispositivos infrarrojos conectados al segundo puerto
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
37
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 38 de
167
serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2
está en AUTO o DISABLED. No hay opciones por defecto.
ONBOARD PARALLEL PORT: Este campo configura el puerto paralelo de
la placa. Hay varias direcciones de puerto y canales IRQ que pueden ser
seleccionados.
378/IRQ7: Dirección de puerto 378, IRQ 7
278/IRQ5: Dirección de puerto 278, IRQ 5
3BC/IRQ7: Dirección de puerto 3BC, IRQ 7
DISABLE: Desactiva el puerto paralelo
PARALLEL PORT MODE: Esta opción especifica el modo del puerto
paralelo. Las opciones son:
NORMAL: Se usa el modo del puerto paralelo normal
Bi-Dir: Usa este campo para soportar transferencias bidireccionales en el
puerto paralelo.
EPP: El puerto paralelo puede ser usado con dispositivos que
contemplan la especificación Enhanced Parallel Port (EPP). EPP usa las
señales del puerto paralelo existente para ofrecer transferencia de datos
bidireccional y asimétrica conducida por la unidad del host.
ECP: El puerto paralelo puede ser usado con dispositivos que
contemplan la especificación Extended Capabilites Port (ECP). ECP usa el
protocolo DMA para ofrecer datos de transferencia hasta 2,5 Megabits
por segundo. ECP ofrece comunicación bi-direccional simétrica.
EPP VERSION: Especifica el número de versión usado para la
especificación Enhanced Parallel Port. Esta opción sólo aparece si modo
del puerto paralelo está puesto en EPP. Las configuraciones son 1.7 o
1.9.
ECP/EPP (recomendado). Da igual que el dispositivo del puerto paralelo
no soporte ni ECP ni EPP. Tú ponlo aquí.
PARALLEL PORT DMA CHANNEL: Esta opción sólo aparece si modo del
puerto paralelo está puesto en ECP. Esta opción configura el canal DMA
usado por el puerto paralelo. Las opciones son DMA CHANNEL 0, 1 o 3
PARALLEL PORT IRQ: Esta opción especifica el IRQ usado por el puerto
paralelo. Las opciones son AUTO (recomendado), (IRQ) 5 o (IRQ) 7.
ONBOARD IDE: Esta opción especifica el canal IDE usado por el
controlador IDE de la placa. Las opciones son ENABLED/AUTO/BOTH,
PRIMARY, SECONDARY y DISABLED. A veces desactivar el segundo
canal suele dar problemas porque Windows lo detecta y coloca uno de
sus signos de interrogación amarillos.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
38
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 39 de
167
SECCIÓN 2: Teoría de procesadores y memorias RAM. (TEÓRICA)
Microprocesadores
Es el cerebro del ordenador. Se encarga de realizar
todas las operaciones de cálculo y de controlar lo que
pasa en el ordenador recibiendo información y dando
órdenes para que los demás elementos trabajen. Es el
jefe del equipo y, a diferencia de otros jefes, es el que
más trabaja. En los equipos actuales se habla
fundamentalmente de los procesadores Pentium4 de Intel y Athlon XP
de AMD. Además, están muy extendidos procesadores no tan
novedosos, como los Pentium MMX y Pentium II/III de Intel y los chips
de AMD (familias K6 y los primeros K7/Athlon).
Tipos de conexión
El rendimiento que dan los microprocesadores no sólo dependen de ellos
mismos, sino de la placa donde se instalan. Los diferentes micros no se
conectan de igual manera a las placas:
Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el
procesador se inserta y se retire sin necesidad de ejercer alguna presión
sobre él. Al levantar la palanquita que hay al lado se libera el
microprocesador, siendo extremadamente sencilla su extracción. Estos
zócalos aseguran la actualización del microprocesador. Hay de diferentes
tipos:
Socket 423 y 478. En ellos se insertan los nuevos Pentiums 4 de Intel.
El primero hace referencia al modelo de 0,18 micras (Willamete) y el
segundo al construido según la tecnología de 0,13 micras (Northwood).
También hay algunos de 478 con núcleo Willamete. El tamaño de micras
mencionado hace referencia al tamaño de cada transistor, cuanto menor
sea tu tamaño más pequeño será el micro y más transistores será
posible utilizar en el mismo espacio físico. Además, la reducción de
tamaño suele estar relacionada con una reducción del calor generado y
con un menor consumo de energía. En el zócalo 478 también se insertan
micros Celeron de Intel de ultimísima generación similares a los p4 pero
más económicos
Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se
insertan los procesadores Athlon en sus versiones más nuevas:
 Athlon Duron (versión reducida, con sólo 64 Kb de memoria
caché, para configuraciones económicas)
 Athlon Thunderbird (versión normal, con un tamaño variable
de la memoria caché, normalmente 256 Kb)
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
39
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 40 de
167
 Athlon XP (con el núcleo Palomino fabricado en 0,18 micras
o Thoroughbred fabricado en 0,13 micras) es un Thunderbird
con una arquitectura totalmente remodelada con un
rendimiento ligeramente superior a la misma frecuencia
(MHz), con un 20% menos de consumo y el nuevo juego de
instrucciones SEC de Intel junto con el ya presente 3DNow!
de todos los procesadores AMD desde el K6-2. o con el
nucleo T).
 Athlon MP (micro que utiliza el núcleo Palomino al igual que
el XP, con la salvedad que éste accede gestiona de forma
diferente el acceso a la memoria a la hora de tener que
compartirla con otros micros, lo cual le hace idóneo para
configuraciones multiprocesador.
Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del
Pentium III y Celeron de Intel.
Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro
optimizado para código en 32 bits que sentaría las bases de lo que
conocemos hoy día.
Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y
muchos otros. Otros socket, como el zócalo ZIF Socket-3 permite la
inserción de un 486 y de un Pentium Overdrive.
Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los
procesadores Athlon antiguos de AMD / los procesadores Pentium II y
antiguos Pentium III / los procesadores Xeon de Intel dedicados a
servidores de red. Todos ellos son cada vez más obsoletos. El modo de
insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos
de dos guías de plástico insertadas en la placa base.
En las placas base más antiguas, el micro iba soldado, de forma que no
podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve en
lo referente a los microprocesadores de PC.
La siguiente es una página en la que se encuentra gran cantidad de
información sobre procesadores y diferentes partes del computador, es
una excelente página y sirve para todas las personas que estén
vinculadas con el ensamble de computadores, la única observación: está
en inglés.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
40
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 41 de
167
http://www.tomshardware.com/index.html
Valoración del rendimiento de un microprocesador
El microprocesador es uno de los componentes que hay que prestar más
atención a la hora de actualizarlo, ya que en su velocidad y prestaciones
suele determinar la calidad del resto de elementos. Esta afirmación
implica que es absurdo poner el último procesador hasta los topes de
Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o
un sistema de almacenamiento (disco duro) lento y escaso. Hay que
hacer una valoración de todos los elementos del ordenador, actualmente
en las tiendas suelen venderse digamos "motores de un mercedes en la
carrocería de un Renault 4". Además del microprocesador, la velocidad
general del sistema se verá muy influenciada debido a la placa base, la
cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro.
Hoy día, hay que fijarse el propósito de la utilización del ordenador para
elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con
los típicos programas de ofimática (Word, Excel...), un 486 con Windows
95 y 16 Mb. de RAM es más que suficiente, siempre y cuando utilicemos
las versiones Windows 95, Word 95 y Excel 95 de cuando el 486 estaba
vigente. Sin embargo, según sean más complejos y nuevos los
programas, más complejos serán los equipos. Los programas
multimedia y enciclopedias, requieren un procesador Pentium de gama
media. A los programas de retoque fotográfico se les puede poner
también un procesador Pentium de gama media, aunque influirá sobre
todo la memoria RAM (harán falta un mínimo de 128 Mb. para un
rendimiento medianamente óptimo). Y últimamente se está incitando a
la adquisición de equipos mejores debido sobre todo a los últimos
juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la
tarea la realiza el micro conjuntamente con la tarjeta gráfica) y a un
nivel menos doméstico, la renderización de gráficos tridimensionales o la
ejecución multitarea de servidores de red. Para esto, nada es suficiente,
por ello los micros son cada vez más y más rápidos y complejos. Por ello
es necesaria la compra de una tarjeta gráfica relativamente potente,
dependiendo del presupuesto y las necesidades. No es aconsejable
comprar tarjetas muy económicas, ya que el rendimiento puede ser
hasta 10 veces inferior el de una tarjeta que cueste el doble.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
41
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 42 de
167
La tabla fue extraída de http://tomshardware.com. El Pentium4 usando
placa con chipset Intel 850E con memoria RAMBUS PC1066 y el Athlon
XP usando placa
con nForce2 y
memoria
DDR
PC3200.
El uso de los
últimos
micros
que sobrepasan
la mítica barrera
del
GHz
se
justifica por los
nuevos sistemas
operativos
(el
nuevo
WindowsXP
por
ejemplo
utiliza
muchos recursos
de la máquina,
mucho más que
otros
Windows
anteriores),
los
nuevos formatos
de audio o vídeo
comprimido
(DivX y MP3, a
diferencia
de
videos y archivos
de
sonido
normales, estos
se descomprimen
en tiempo real
,tarea
llevada
completamente a cabo por el micro), realizar más trabajo en menos
tiempo, como compresiones de archivos, renderizado de dibujos en
3D.... o el simple hecho de cargar un programa como Word o el mismo
Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy
día que mejor PC en términos generales requieren.
Athlon XP. El nuevo procesador de AMD es según nuestra opinión la
mejor alternativa sin ninguna duda, sobre todo en relación
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
42
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 43 de
167
calidad/precio. Además, con la mayoría del software actual son los
micros más rápidos en comparación con los Intel Pentium4 de Intel. A la
hora de comprar un micro de este tipo, conviene prestar muchísima
atención a la placa base (recomendamos chipsets KT333 y KT400 de
Via, nForce2 de nVidia o chipsets de SiS de última generación), a la
memoria RAM (siempre con memoria "DDR", olvida placas que utilicen
aún SDRAM) y a la tarjeta gráfica especialmente si vas a usar el PC para
jugar o para disfrutar de altas resoluciones con altos refrescos en un
monitor alto de gama y de gran tamaño.
Lo que hay en los paréntesis viene a significar: (Velocidad real en MHz
del micro / Velocidad en Mhz del FSB, es decir, de la memoria RAM y
otros componentes de la placa mediante la aplicación de divisores /
Velocidad externa del micro, con la que se comunica el chipset de la
placa base)
Pentium4. Micro sobre el papel más avanzado que el AthlonXP pero
que a la hora de la verdad viene a tener un rendimiento similar. El
Pentium4 se caracteriza por su alto número de Mhz, pero fíjate que
ejecuta 6 instrucciones por cada ciclo de reloj mientras que el AthlonXP
que funciona a menos Mhz ejecuta 9 instrucciones. Normalmente, el
micro de Intel de por ejemplo 2200 Mhz va a costar más que el
AthlonXP equivalente, en este caso el 2200+ (que en realidad funciona a
1800 Mhz), como puedes ver en la tabla de más abajo. El Pentium4
tiene ventajas como una menor generación de calor, por lo que
tendremos en ese aspecto muchos menos problemas que el Athlon. En
inconvenientes, principalmente el coste. Podríamos dar muchas más
diferencias entre AMD e Intel, pero no tenemos la intención de iniciar
ahora una discusión sobre el tema.
Multiprocesador AMD, 2 Athlones MP. Mejor esto que un
multiprocesador de 2 Pentiums4 Xeon, ya que el precio de esto último
se va por las nubes. En caso de disponer de un presupuesto muy
generoso puedes ir a este campo, siempre y cuando tengas un sistema
operativo preparado para soportar 2 procesadores, tal como cualquier
versión de Windows NT, Windows 2000, Windows XP SOLO VERSIÓN
PROFESIONAL o por supuesto Linux / Unix y derivados. Con esto puedes
distribuir las tareas, como liberar un procesador para que lo utilice sólo
un determinado programa, o bien disfrutar del proceso en paralelo,
ejecutar más trabajo en menos tiempo. Sólo hay algunos
inconvenientes, como el hecho de tener que disponer de, lógicamente,
una placa con dos zócalos preparada para dos micros, y de memoria
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
43
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 44 de
167
RAM ECC/registrada, que viene a costar 5 veces la memoria que
ponemos en nuestros PCs normalmente.
Soluciones más económicas, Duron de AMD, Celeron de Intel e
incluso Pentium III de Intel. Recomendable si disponemos de muy
poco presupuesto o queremos adquirir un segundo equipo para diversas
funciones, como por ejemplo hacer un servidor para administrar
impresoras, un FTP o páginas Web.
Memorias
Tradicionalmente se ha hablado de dos memorias principales existentes
en las computadoras personales: la memoria ROM (Read Only Memory)
y la memoria RAM (Random Acces Memory) . De la primera se ha dicho
que es una área de almacenamiento permanente e 'inmodificable' o sea
de lectura solamente. Y de la segunda que es el área de trabajo real del
PC. La ROM en realidad es una memoria programable hasta cierto
punto: permite personalizar mediante un subprograma almacenado en
ella (EL SETUP), las funciones del PC para adaptarlo a las diferentes
clases de componentes con que se puede armar un PC. El BIOS que es
el otro nombre genérico con que se conoce a la ROM tiene
adicionalmente un conjunto de instrucciones que establecen un
comportamiento especifico entre los circuitos de la maquina y el sistema
operativo. Estas instrucciones grabadas por el fabricante, se modifican o
programan solo mediante procedimientos avanzados: por software de
actualización o con máquinas de reprogramación de Bios.
..........
La RAM en cambio, es una AREA DE TRABAJO vacía. Un espacio que se
crea a discreción del integrador de equipos para construir un PC con
determinado espacio (128, 256, 512 megabytes, etc.). Ello
es posible insertando MODULOS de memoria en los bancos
de memoria que poseen las motherboards o placas base.
Para entender que es la memoria, nada mejor que usar
una analogía: imagina un área en la cual hemos trazado líneas verticales
y horizontales para hacer una retícula. Si a cada columna y a cada fila
de cuadritos le asignamos una letra y número para identificarlos en
forma de coordenadas, podemos luego identificar una posición de una
celda determinada por la letra de la columna y el numero de la fila (tal
como sucede con las celdas de las Hojas de calculo tipo Excel). Eso,
para entenderlo gráficamente. Pero matemáticamente hablando, en la
Ram cada celda tiene una ubicación o nombre en una nomenclatura
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
44
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 45 de
167
aceptada por la comunidad científica: el sistema hexadecimal. Cada
deposito de un dato en la memoria (operando, resultado, etc.) se ubica
por una dirección en hexadecimal (Windows 9x revela las direcciones
con problemas cuando se paraliza lanzando sus pantallas azules).
Hemos de distinguir entre la memoria principal, la memoria caché, y la
memoria de video.
La primera se emplea para poder ejecutar mayores y más programas al
mismo tiempo, la segunda para acelerar los procesos de la C.P.U, y la
tercera nos permite visualizar modos de mayor resolución y con más
colores en el monitor, así como almacenar más texturas en tarjetas 3D.
Memoria caché:
La memoria caché de segundo nivel (L2) es una memoria muy rápida
llamada SRAM (RAM estática) que se coloca entre la memoria principal y
la
CPU
y
que
almacena
los
últimos
datos
transferidos.
El procesador, como en los casos de caché de disco, primero consulta a
dicha memoria intermedia para ver si la información que busca está allí,
en caso afirmativo podemos trabajar con ella sin tener que esperar a la
más lenta memoria principal.
Dicha memoria solo se usa como caché debido a que su fabricación es
muy cara y se emplea en módulos de poca capacidad como 256 ó 512
Kb.
No hay que confundir nunca la memoria de segundo nivel con la de
primer nivel (L1) ya que esta suele ir integrada dentro del procesador, y
suele ser de menor capacidad, aunque evidentemente dispone de un
acceso mucho más rápido por parte de la CPU.
Su implementación en la placa base puede ser o bien colocar los chips
directamente en ella, mediante zócalos o con soldadura directa, o en
unos módulos parecidos a los SIMM's llamados COAST, de más fácil
actualización.
Memoria principal:
La primera distinción que debemos realizar es el formato físico, cuyo
parámetro más importante es el número de contactos (ó pins).
Se encuentran de 30 contactos (8
bits) y que miden unos 9 cm., 72
(32 bits) y con una longitud de casi
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
45
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 46 de
167
11cm., y 168 (64 bits) y casi 13 cm. Las dos primeras reciben el nombre
de SIMM y funcionan a 5V, y la última es conocida como DIMM y puede
trabajar a 3,3V ó a 5V, dependiendo del tipo.
La siguiente distinción por orden de importancia sería el tipo, en orden a
su antigüedad, esta puede ser DRAM, Fast Page (o FPM), EDO, SDRAM,
DDR o Rambus. Es importante consultar el manual de la placa base para
saber que tipos soporta.
El tipo SDRAM sólo se encuentra en formato DIMM, y es la que más
dolores de cabeza nos puede causar, ya que puede ser Buffered o
Unbuffered, y trabajar a 3,3 o a 5V. Además, no todas las placas base
soportan todas estas combinaciones, algunas por ejemplo sólo soportan
módulos
de
3,3V.
Afortunadamente, hay una muesca en estas memorias que impide
conectar un módulo en un zócalo para el que no ha sido diseñado.
Otra característica importante es la paridad, esta característica
actualmente está en desuso, pero puede ser fuente de problemas, ya
que algunas placas no soportan esta característica, mientras otras
(pocas) sólo funcionan con ella.
Saber si un módulo posee o no paridad es relativamente fácil, basta con
contar el número de chips (circuitos integrados) que hay en el circuito
impreso. Si es impar entonces es memoria con paridad.
Por último nos queda comentar el tiempo de acceso, éste cuanto más
pequeño
sea,
mejor.
Si hablamos de módulos SIMM, dependiendo de su antigüedad, son
normales tiempos de 80, 70, 60 ó incluso 50 ns. En las memorias DIMM
SDRAM, suelen ser habituales tiempos de alrededor de 10 ns.
También hay que entender que el bus de datos del procesador debe
coincidir con el de la memoria, y en el caso de que no sea así, esta se
organizará en bancos, habiendo de tener cada banco la cantidad
necesaria
de
módulos
hasta
llegar
al
ancho
buscado.
Por tanto el ordenador sólo trabaja con bancos completos, y éstos sólo
pueden componerse de módulos del mismo tipo y capacidad.
Arquitectura de la memoria. Al igual que el microprocesador, la memoria
esta
formada
internamente
por
componentes
electrónicos
miniaturizados. En ella abundan los capacitores y circuitos flip-flop. Las
primeras Ram trabajaban con circuitos que requerían refresco
permanente (circulación de electricidad) para no perder la información
que se depositaba en ellas, por eso se les dio el nombre de DRAM
(Dynamic Random Acces Memory). En la evolución lógica posterior, se
implementó el uso de circuitos flip-flop (circuitos transistorizados que
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
46
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 47 de
167
luego de recibir una señal eléctrica, conservan la información sin
refresco adicional). Estos dieron a la postre la aparición de las memorias
caché (mas costosas y más rápidas) conocidas también como SRAM
(Static Random Acces Memory).
Electrónicamente la Ram es un conjunto formado por millones de
conmutadores que cambian su estado constantemente de abierto (0) a
cerrado (1) para generar la logica binaria. Esos circuitos quedan sin
energía eléctrica cuando se apaga la computadora lo que equivale a
perder toda la información depositada si no se traslada a un dispositivo
de almacenamiento permanente como el disco duro, un CD, diskette o
cinta magnética. .......
La velocidad con que los circuitos de la Ram permiten manipular los
datos que se colocan en ella se conoce como su velocidad de trabajo y
se mide en nanosegundos (mil millonésima de un segundo). Mientras
menos nanosegundos utilice la ram en un movimiento de dato, más
rápida será. Las velocidades que la industria ha alcanzado son
impresionantes: 2 nanosegundos en Ram especial y un promedio de 4 6 nanosegundos en Ram generica.
..........
Módulos SIMM
Estos módulos (Single In-line Memory Module) pueden ser de 30 o 72
contactos. Los módulos de 30 contactos eran utilizados en los tiempos
de los 386 y 486 para equipar a estas plataformas. Más tarde
aparecieron los de 72 contactos, algo más grandes y con capacidad de
integrar más chips de memoria. Aunque se empezaron a utilizar con los
últimos procesadores 486, vivieron su verdadero apogeo con los
Pentium. En cualquier caso, la velocidad de respuesta de estos módulos
no era inferior a los 50 o 60 nanosegundos (ns).
Sobre la instalación de estos módulos hemos de tener presente que los
de 30 contactos debían ser instalados de cuatro en cuatro en la mayor
parte de los casos. En el caso de los de 72 contactos, éstos debían ser
instalados a pares. Como es lógico, en los dos casos es necesario que
los módulos tengan el mismo tamaño y, a ser posible, igual marca y
modelo. La inserción de estos módulos es muy sencilla, entrando en los
bancos de memoria en un ángulo de unos 45 grados, tras lo que sólo
hay que empujar el módulo y colocarlo en posición vertical. En
cualquiera de los dos casos, sólo hemos de tener presente el respetar
que la pestaña lateral se acople en el banco elegido.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
47
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 48 de
167
Clases de memoria. La clasificación de la memoria presenta el hecho
histórico de que usualmente hay una categoría vigente según la época.
Revisando la historia, la memoria de los PCs ha evolucionado así:
..........
FAST PAGE MODE (FPM). 1987. La primera memoria utilizada a nivel
masivo (en PCs). Fue una memoria de tipo DRAM (Dynamic Random
Acces Memory). Fue una memoria muy popular, ya que era la que se
incluía en los antiguos 386, 486 y primeros Pentium. Alcanza
velocidades de hasta 60 nanosegundos. La podemos encontrar en los
veteranos módulos SIMM de 30 contactos y los posteriores de 72.
..........
EXTENDED DATA OUT (EDO). la memoria EDO, a diferencia de la FPM,
que sólo podía acceder a un solo byte al tiempo, permite mover un
bloque completo de memoria a la memoria caché del sistema,
mejorando así las prestaciones globales. Gracias a una mayor calidad,
se alcanzaron velocidades de hasta 45 nanosegundos. Podemos
encontrarla en los Pentium, Pentium Pro y los primeros Pentium II. Se
presentan en módulos SIMM de 72 contactos y en los primeros DIMM de
168 contactos, funcionando a 5 y 3,3 voltios. Surge en 1995 y es 10 a
15% más veloz que FPM, se caracterizó porque los accesos de escritura
y lectura en la memoria se podían hacer en direcciones secuenciales o
vecinas, en contraposición a su anterior que lo hacia en modo paginado
(todas las columnas de una fila, luego la siguiente fila, etc.)..
..........
BEDO (Burst Extended Data Output): diseñada originalmente para la
familia de chipsets HX, permite transferir datos al procesador en cada
ciclo de reloj, aunque no de forma continuada, sino a ráfagas (burst),
reduciendo los tiempos de espera del procesador, aunque sin conseguir
eliminarlos del todo.
SYNCHRONOUS DRAM (SDRAM). 1996. La primera memoria que trabaja
sincronizando su tiempo de trabajo con los ciclos de reloj del sistema, a
fin de que la CPU no tenga que tener ciclos de espera para recibir datos
de la Ram. Los chips se dividen en dos bloques o celdas en donde un
bloque recibe los datos en tanto que otro los procesa a la siguiente
dirección de memoria. Eso permite que los siguientes caracteres
adyacentes al primero se registren a velocidades de 10 nanosegundos
(el primero se registra alrededor de los 60 nanosegundos). Las
memorias conocidas como PC 100, PC133, PC 200, etc. pertenecen a
esta clasificación pues se las instala de acuerdo al bus que utiliza la
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
48
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 49 de
167
placa base. Se presenta en forma de módulos con 168 contactos o pines
(módulos DIMM).
..........
DOUBLE DATA RATE SYNCHRONOUS DRAM (DDR SDRAM). 2000.
Memoria moderna cuya tecnología transmite al doble de la velocidad del
bus del sistema. Se presenta en módulos con 184 contactos o pines y
se presenta en forma de módulos con 184 contactos o pines.
A diferencia de la memoria SDRAM que soporta una sola operación de
memoria (tal como una lectura o una escritura de memoria) por ciclo de
reloj- la memoria DDR soporta dos operaciones de memoria por ciclo de
reloj- y al hacer esto, proporciona un doble desempeño. Y dado que
SDRAM solamente puede hacer una operación de datos por ciclo de
reloj, se clasifica como una tecnología de una sola velocidad de datos en
comparación con las transferencias duales de datos soportadas por DDR,
por lo que esta recibe el nombre "Velocidad doble de datos" ("Velocidad
de datos" se refiere a la velocidad efectiva de reloj para los datos).
Haciendo otra comparación, la memoria PC133 SDRAM tiene una
velocidad de reloj de 133MHz y una velocidad de datos correspondiente
de 133 MHz (133 MHz x 1 operación de datos por ciclo de reloj) en tanto
que una DDR de 333 MHz, con un reloj de 166 MHz, tiene una velocidad
de datos de 333 MHz (166 MHz x 2 operaciones de datos por ciclo de
reloj).
DIRECT RAMBUS. Creada por Rambus Inc, es una versión avanzada de
la memoria DRAM. Se conoce también como RIMM, marca que le
pertenece a Rambus. El rendimiento de la memoria Rambus es
excepcional (llega a rangos de 800 MHz de transferencia) a cambio de
ser muy costosa. No ha tenido difusión en el mercado masivo
precisamente por el costo. Se presenta en módulos parecidos a los
DIMM pero sus chips están cubiertos por un disipador de calor metálico
que cubre todo el modulo. Dado su costo, predomina en el ambiente
exclusivo de los servidores. Este tipo de memoria, apoyado por Intel y
creado por la empresa Rambus, exige a los fabricantes el pago de
royalties en concepto de uso, razón por la cual, salvo Intel, el resto de
empresas del sector se decantan por la utilización de otras memorias.
Estos módulos de memoria se caracterizan por estar cubiertos con una
protección metálica, generalmente de aluminio, que también ayuda a su
correcta refrigeración..
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
49
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 50 de
167
....... Memoria SRAM
Representa la abreviatura de Static Random Access Memory y es la
alternativa a la DRAM. No precisa de tanta electricidad como la anterior
para su refresco y movimiento de las direcciones de memoria, por lo
que, en resumidas cuentas, funciona más rápida. Sin embargo, tiene un
elevado precio, por lo que de momento se reserva para ser utilizada en
la memoria caché de procesadores y placas base, cuyo tamaño suele ser
muy reducido, comparado con la RAM del sistema. Así, y atendiendo a la
utilización de la SRAM como memoria caché de nuestros sistemas
informáticos, tenemos tres tipos:
Async SRAM: la memoria caché de los antiguos 386, 486 y
primeros Pentium, asíncrona y con velocidades entre 20 y 12
nanosegundos.
Sync SRAM: es la siguiente generación, capaz de sincronizarse con
el procesador y con una velocidad entre 12 y 8,5 nanosegundos.
Muy utilizada en sistemas a 66 MHz de bus.
Pipelined SRAM: se sincroniza igualmente con el procesador. Tarda
en cargar los datos más que la anterior, aunque una vez cargados,
accede a ellos con más rapidez. Opera a velocidades entre 8 y 4,5
nanosegundos.
Memoria Tag RAM
Este tipo de memoria almacena las direcciones de memoria de cada uno
de los datos de la DRAM almacenados en la memoria caché del sistema.
Así, si el procesador requiere un dato y encuentra su dirección en la Tag
RAM, va a buscarlo inmediatamente a la caché, lo que agiliza el proceso.
Memoria VRAM
Esta es la memoria que utiliza nuestro controlador gráfico para poder
manejar toda la información visual que le manda la CPU del sistema, y
podría ser incluida dentro de la categoría de Peripheral RAM. La principal
característica de esta clase de memoria es que es accesible de forma
simultánea por dos dispositivos. De esta manera es posible que la CPU
grabe información en ella, mientras se leen los datos que serán
visualizados en el monitor en cada momento.
Paridad de módulos
Seguro que más de uno se habrá planteado el porqué de la necesidad de
hacer coincidir a pares ciertos módulos de memoria. La explicación es
que cada módulo es capaz de devolver cierto número de bits de golpe y
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
50
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 51 de
167
éste ha de completar el ancho de banda del procesador. Es decir, si
contamos con un procesador Pentium con un bus de datos de 32 bits,
necesitaremos un sistema de memoria capaz de llenar este ancho de
banda. Por ello, si cada módulo de 72 contactos proporciona 16 bits de
una sola vez, precisaremos dos de estos módulos. Algo extrapolable a
los módulos de 30 contactos, que con 4 bits cada uno, y para
procesadores de 16 bits, necesitaban cuatro. Los actuales DIMM son
capaces de proporcionar los 32 bits de golpe, por lo que pueden
instalarse individualmente. Son de 184 pines, tienen el mismo tamaño
que las DIMM
INSTALACION DE LA MEMORIA RAM.
El procedimiento para aumentar su capacidad (adicionando mas
módulos) asi como para reemplazarla (cuando un modulo de daña)
demanda los mismos detalles: 1. Hay que ubicar los bancos de
memoria en la motherboard y empezar a colocarlos por el banco 1
preferiblemente. 2. Hay que insertar los módulos guiándose por sus
muescas. 3. Deben quedar bien insertados y asegurados. 4. Se debe
evitar la instalación mezclada de módulos para distintos buses (como
PC100 y PC 133, para evitar conflictos). 5. La capacidad de los
módulos puede combinarse (Ej: un módulo de 64 MB + un modulo de
128 MB).
Errores de memoria.
Considerando que el trabajo que se realiza en la memoria es
sumamente delicado, se han creado procedimientos de control de
errores a fin de poder confiar en los resultados que muestran las
máquinas. Los dos mas utilizados son el control de paridad y el metodo
ECC (Error Correction Code). Para entender el por que hay que tener
implementados sistemas de verificación, hay que recordar dos factores
que intervienen en el trabajo de la Ram: 1. La circuiteria electrónica de
la memoria utiliza pequeños capacitores (almacenes de electricidad)
afectos a interferencias, que deben recibir permanente refresco y 2. El
Software (en el que se cuentan los programas de aplicación, los drivers
o controladores, los virus, los errores de lectura en disco, etc.) puede
tener error de código. Afortunadamente ambos escollos continúan
siendo superados tecnológicamente por lo que cada vez menos
integradores de PCs utilizan Ram sin la función de integridad de datos.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
51
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
Página 52 de
167
52
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 53 de
167
MÓDULO # 6 y 7: PC 586 y AMD K6 – Discos Duros
OBJETIVOS
Conocer las opciones de configuración básicas de la BIOS a través
del programa SETUP.
Proporcionar la teoría sobre discos duros y las tecnologías de
discos.
SECCIÓN 1: Práctica ensamble equipo 586 y K6 . (PRÁCTICA)
DISCOS DUROS
Los discos duros se presentan recubiertos de una capa magnética
delgada, habitualmente de óxido de hierro, y se dividen en unos círculos
concéntricos cilindros (coincidentes con las pistas de los disquetes), que
empiezan en la parte exterior del disco (primer cilindro) y terminan en la
parte interior (último). Asimismo estos cilindros se dividen en sectores,
cuyo número esta determinado por el tipo de disco y su formato, siendo
todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores
se identifican con una serie de números que se les asignan, empezando
por el 1, pues el numero 0 de cada cilindro se reserva para propósitos
de identificación mas que para almacenamiento de datos. Estos,
escritos/leídos en el disco, deben ajustarse al tamaño fijado del
almacenamiento de los sectores. Habitualmente, los sistemas de disco
duro contienen más de una unidad en su interior, por lo que el número
de caras puede ser más de 2. Estas se identifican con un número,
siendo el 0 para la primera. En general su organización es igual a los
disquetes. La capacidad del disco resulta de multiplicar el número de
caras por el de pistas por cara y por el de sectores por pista, al total por
el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar
por ella un pulso de corriente, lo cual crea un campo magnético en la
superficie. Dependiendo del sentido de la corriente, así será la polaridad
de la celda. ara leer, se mide la corriente inducida por el campo
magnético de la celda. Es decir que al pasar sobre una zona detectará
un campo magnético que según se encuentre magnetizada en un
sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1.
En el caso de la escritura el proceso es el inverso, la cabeza recibe una
corriente que provoca un campo magnético, el cual pone la posición
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
53
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 54 de
167
sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor
del campo magnético provocado por dicha corriente.
Los componentes físicos de una unidad de disco duro
 CABEZA DE LECTURA / ESCRITURA: Es la parte de la unidad de
disco que escribe y lee los datos del disco. Su funcionamiento consiste
en una bobina de hilo que se acciona según el campo magnético que
detecte sobre el soporte magnético, produciendo una pequeña corriente
que es detectada y amplificada por la electrónica de la unidad de disco.
 DISCO: Convencionalmente los discos duros están compuestos por
varios platos, es decir varios discos de material magnético montados
sobre un eje central. Estos discos normalmente tienen dos caras que
pueden usarse para el almacenamiento de datos, si bien suele
reservarse una para almacenar información de control.
 EJE: Es la parte del disco duro que actúa como soporte, sobre el cual
están montados y giran los platos del disco.
 IMPULSOR DE CABEZA: Es el mecanismo que mueve las cabezas de
lectura / escritura radialmente a través de la superficie de los platos de
la unidad de disco.
Mientras que lógicamente la capacidad de un disco duro puede ser
medida según los siguientes parámetros:
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
54
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 55 de
167
 CILINDRO: Es una pila tridimensional de pistas verticales de los
múltiples platos. El número de cilindros de un disco corresponde al
número de posiciones diferentes en las cuales las cabezas de
lectura/escritura pueden moverse.
 CLUSTER: Es un grupo de sectores que es la unidad más pequeña de
almacenamiento reconocida por el DOS. Normalmente 4 sectores de 512
bytes constituyen un Cluster (racimo), y uno o más Cluster forman una
pista.
 PISTA: Es la trayectoria circular trazada a través de la superficie
circular del plato de un disco por la cabeza de lectura / escritura. Cada
pista está formada por uno o más Cluster.
 SECTOR: Es la unidad básica de almacenamiento de datos sobre
discos duros. En la mayoría de los discos duros los sectores son de 512
Bytes cada uno, cuatro sectores constituyen un Cluster.
Ha habido muchos cambios en el campo de los discos duros. De más
antiguos del tamaño de una caja de zapatos y de capacidades ridículas
(vistas desde hoy) hasta discos duros compactos y reducidos con
capacidades 400 veces mayores.
Estructura interna de un disco duro
Un disco duro se compone de muchos elementos; citaremos los más
importantes de cara a entender su funcionamiento. En primer lugar, la
información se almacena en unos finos platos o discos, generalmente
de aluminio, recubiertos por un material sensible a alteraciones
magnéticas. Estos discos, cuyo número varía según la capacidad de la
unidad, se encuentran agrupados uno sobre otro y atravesados por un
eje, y giran continuamente a gran velocidad.
Asimismo,
cada
disco
posee
dos
diminutos
cabezales
de
lectura/escritura, uno en cada cara. Estos cabezales se encuentran
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
55
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 56 de
167
flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia
de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar
que el diámetro de un cabello humano es de unas 4.000 pulgadas).
Estos cabezales generan señales eléctricas que alteran los campos
magnéticos del disco, dando forma a la información. (dependiendo de la
dirección hacia donde estén orientadas las partículas, valdrán 0 o
valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la
densidad de almacenamiento del mismo, ya que cuanto más cerca estén
el uno del otro, más pequeño es el punto magnético y más información
podrá albergar.
Velocidad de lectura del Disco
Antes hemos comentado que los discos giran continuamente a gran
velocidad; este detalle, la velocidad de rotación, incide directamente en
el rendimiento de la unidad, concretamente en el tiempo de acceso. Es
el parámetro más usado para medir la velocidad de un disco duro, y lo
forman la suma de dos factores: el tiempo medio de búsqueda y la
latencia; el primero es lo que tarde el cabezal en desplazarse a una
pista determinada, y el segundo es el tiempo que emplean los datos en
pasar por el cabezal.
Si se aumenta la velocidad de rotación, la latencia se reduce; en
antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que
daba una latencia de 8,3 milisegundos. La mayoría de los discos duros
actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de
latencia. Y actualmente, existen discos de alta gama aún más rápidos,
hasta 10.000 rpm.
Interfaces: ST506, MFM y RLL
Hasta aquí hemos visto la estructura del disco duro, pero nos falta una
pieza vital: la controladora. Es un componente electrónico que gestiona
el flujo de datos entre el sistema y el disco, siendo responsable de
factores como el formato en que se almacenan los datos, su tasa de
transferencia, velocidad, etcétera.
Los primeros discos duros eran gestionados por controladoras ST506, un
estándar creado por la conocida empresa Seagate. Dentro de esta
norma se implementaron los modos MFM y RLL, dos sistemas para el
almacenamiento de datos que, si bien diferentes en su funcionamiento,
a nivel físico y externo del disco presentaban la misma apariencia,
siendo conocidos de forma genérica en el mundillo como "discos MFM".
Estas unidades incluían externamente tres conectores: el primero, y
común a cualquier disco duro, es el de alimentación. En los restantes se
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
56
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 57 de
167
conectaba un cable de control y un cable de datos, desde el disco a la
controladora; el cable de control gestionaba la posición de los cabezales
y el de datos transmitía el flujo de información desde y hasta la
controladora.
La diferencia entre MFM y RLL es a nivel interno; MFM (Modified
Frequency Modulation) y RLL (Run Length Limited) son dos métodos de
codificación de la información binaria. RLL permite almacenar un 50%
más de datos que el MFM, al aumentar la densidad de almacenamiento.
También la trasa de transferencia es superior en RLL, debido al más
eficiente método de grabación usado, sin embargo, la velocidad de
rotación era la misma en ambos casos: 3600 rpm.
En cualquier caso, la tasa de transferencia de estas unidades no era
precisamente como para tirar cohetes: una media de 5 Mbtis por
segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en
cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas,
120 Megas en las RLL
ESDI
Con esta interfaz, “Enhanced Small Devices Interface” (interfaz
mejorada para dispositivos pequeños), se daba un paso adelante. Para
empezar, una parte de la lógica decodificadora de la controladora se
implementó en la propia unidad, lo que permitió elevar el ratio de
transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño
buffer de sectores que permitía transferir pistas completas en un único
giro o revolución del disco.
No obstante, estas unidades no se extendieron demasiado, y
únicamente compañías como IBM (muy aficionadas a tecnologías
propietarias) fueron las que más lo emplearon en sus máquinas. Estas
unidades no solían tener una capacidad superior a 630 Megas, y en
cualquier caso se trató más bien de una tecnología de transición, ya que
un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la
interfaz que detallamos a continuación.
El estándar IDE
“Integrated Drive Electronics”, o IDE, fue creado por la firma Western
Digital, curiosamente por encargo de Compaq para una nueva gama de
ordenadores personales. Su característica más representativa era la
implementación de la controladora en el propio disco duro, de ahí su
denominación. Desde ese momento, únicamente se necesita una
conexión entre el cable IDE y el Bus del sistema, siendo posible
implementarla en la placa base (como de hecho ya se hace desde los
486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
57
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 58 de
167
eliminó la necesidad de disponer de dos cables separados para control y
datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se
estableció también el término ATA (AT Attachment) que define una serie
de normas a las que deben acogerse los fabricantes de unidades de este
tipo.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de
varios métodos para realizar estos movimientos de datos, que veremos
en el apartado “Modos de Transferencia”. La interfaz IDE supuso la
simplificación en el proceso de instalación y configuración de discos
duros, y estuvo durante un tiempo a la altura de las exigencias del
mercado.
No obstante, no tardaron en ponerse en manifiesto ciertas
modificaciones en su diseño. Dos muy importantes eran de capacidad de
almacenamiento, de conexión y de ratios de transferencia; en efecto, la
tasa de transferencia se iba quedando atrás ante la demanda cada vez
mayor de prestaciones por parte del software (¿estás ahí, Windows?).
Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su
capacidad (aunque ero no era del todo culpa suya, lo veremos en el
apartado “El papel de la BIOS”) no solía exceder de los 528 Megas. Se
imponía una mejora, y ¿quién mejor para llevarla a cabo que la
compañía que lo creó?
Enhanced IDE
La interfaz EIDE o IDE mejorado, propuesto también por Western
Digital, logra una mejora de flexibilidad y prestaciones. Para empezar,
aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia
empieza a subir a partir de los 10 Megas por segundo, según el modo de
transferencia usado. Además, se implementaron dos sistemas de
traducción de los parámetros físicos de la unidad, de forma que se
pudiera acceder a superiores capacidades. Estos sistemas, denominados
CHS y LBA aportaron ventajas innegables, ya que con mínimas
modificaciones (aunque LBA exigía también cambios en la BIOS del PC)
se podían acceder a las máximas capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían
ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se
obligó a fabricantes de sistemas y de BIOS a soportar los controladores
secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del
PC pero nunca usados hasta el momento, de forma que se pudieran
montar una unidad y otra esclava, configuradas como secundarias. Más
aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta,
coexistiendo pacíficamente en el sistema (más sobre esto en el apartado
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
58
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 59 de
167
“Otros términos”). A nivel externo, no existen prácticamente diferencias
con el anterior IDE, en todo caso un menor tamaño o más bien una
superior integración de un mayor número de componentes en el mismo
espacio.
Modos de transferencia
Los dispositivos IDE pueden transferir información principalmente
empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O)
depende del procesador para efectuar el trasiego de datos. A nivel de
rendimiento no hay mayor problema, ya que los micros actuales tienen
la suficiente capacidad para gestionar estas operaciones y alternarlas
con otras, por supuesto. El otro método es el DMA; así la CPU se
desentiende de la transferencia, teniendo ésta lugar por mediación de
un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y
2, que podían llegar a unos 4 Megas por segundo de transferencia; el
modo DMA del IDE original no superaba precisamente esa tasa,
quedándose en unos 2 o 3 Megas por segundo.
Hay que decir que existe una variante de la transferencia DMA, y es la
BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets
de las placas base, cada vez más optimizados para estas laboras.
Además de liberar al procesador, puede obtener por parte de éste un
control casi total, de forma que la información sea transferida con la
máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la
última modalidad Ultra DMA logra llegar a los 33,3 Megas/s,
aprovechando las bondades del nuevo chipset TX de Intel. No obstante,
para disfrutar de esta técnica es precioso contar con los
correspondientes controladores, suministrados normalmente por el
fabricante de la correspondiente placa base.
Otros términos
EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con
ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast
ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar
aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA
2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro
método de transferencia propio del Fast ATA, y es la múltiple
lectura/escritura; es decir, la capacidad de leer o escribir varios sectores
(normalmente hasta 32) en una sola interrupción, lo que permite
optimizar la transferencia incluso en buses lentos, como ISA.
Conviene resaltar que las tasas de transferencia citadas se consiguen en
el mejor de los casos, y no siempre son sostenidas, es decir, que suelen
ser “picos” de transferencia.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
59
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 60 de
167
Es preciso también abordar en esta introducción a los discos duros otro
término muy conocido; ya hemos comentado que EIDE amplió la
flexibilidad en el conexionado, permitiendo la coexistencia de discos
duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para
ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del
protocolo ATA creada con el fin de aportar un único conjunto de
registros y mandatos, y de esta forma facilitar la coexistencia de estas
unidades. Los dispositivos de este tipo también pueden, por tanto,
beneficiarse de todas las ventajas de los modos PIO y DMA.
MODO DE TRANSFERENCIA
MB
DE
(PICOS)
PIO 0
2/3 Mb/s
PIO 1 y 2
4 Mb/s
PIO 3
11 Mb/s
PIO 4
16 Mb/s
MultiWord DMA 1
13 Mb/s
MultiWord DMA 2
16,6 Mb/s
Ultra DMA 33
33 Mb/s
Ultra DMA 66
66 Mb/s
TRANSFERENCIA
Buffer y caché
Prácticamente todos los discos duros incluyen una memoria buffer, en la
que almacenan los últimos sectores leídos; ésta, que puede ser desde 2
Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso
imprescindible para poder mantener altas cotas de transferencia. Se la
denomina caché cuando incluyen ciertas características de velocidad;
concretamente, los procesos se optimizan cuando el sistema vuelve de
una operación de copiado de datos a la unidad sin esperar a que ésta
haya finalizado. También utilizan otra técnica diferente consistente en
que la unidad informa de la finalización de una operación de escritura en
el momento de recibir los datos, antes de comenzar a grabarlos en el
disco. De esta manera no se producen estados de espera; tras todo lo
comentado hasta este momento, podemos decir, resumiendo, que un
caché amplio en un disco duro es absolutamente imprescindible.
Más de 520 Megas... ¿por qué no?
Seguro que muchos de vosotros habéis vivido el caso (o al menos
habéis sido testigos de él) de ir a instalar un disco duro de alta
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
60
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 61 de
167
capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis
528 Megas. Se trata de una nefasta limitación, que curiosamente no
está impuesta ni por la BIOS (Basic Input/Output System) ni por el
estándar IDE (ni por el DOS, como alguna gente piensa); en realidad,
viene dada.... ¡por ambos!
La capacidad de un disco duro se mide en tres valores: número de
sectores por pista, número de cabezas y número de cilindros (notación
CHS); el estándar IDE soporte 65.536 cilindros, 16 cabezas y 255
sectores por pista, lo que nos da una capacidad bestial, alrededor de
137 Gigas.
Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63
sectores; ya que ambos deben funcionar en conjunción, es el mínimo
común denominador de ambos el que marcará la capacidad definitiva,
que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo
del IDE) y 63 sectores (máximo de la BIOS), lo que nos va a dar un
total de 528 Megas.
Para superar esta traba, la BIOS debe implementar el modo de trabajo
conocido como LBA (Logical Block Adreesing), que traduce el esquema
CHS a otro de direccionamiento lógico. Esta operación es totalmente
transparente al sistema operativo y al software en general, y aporta la
evidente ventaja de poseer acceder a todo el espacio disponible del
disco duro del ordenador.
Cuando una BIOS no soporta esta técnica, es preciso emularla por
software; para ello, el fabricante de la unidad suele poner a disposición
del usuario utilidades especiales que, en forma de driver residente,
logran engañar al sistema y obtener el mismo efecto que el LBA por
BIOS.
La norma SCSI
Hasta el momento hemos estado comentando los estándares ST506,
MFM, RLL, IDE y EIDE, pero nos hemos saltado uno que, tan veterano
como los anteriores, ha ido evolucionando (hasta hace poco en otros
segmentos de mercado) de forma paralela a ellos. Nos referimos, por
supuesto, a SCSI; demos un breve paseo por sus características.
La interfaz SCSI (Small Computer System Interface) ha sido
tradicionalmente relegada a tareas y entornos de ámbito profesional, en
los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para
empezar, SCSI es una estructura de bus separada del bus del sistema.
De esta forma, evita las limitaciones propias del bus del PC. Además, en
su versión más sencilla esta norma permite conectar hasta 7
dispositivos SCSI (serían 8 pero uno de ellos ha de ser la propia
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
61
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 62 de
167
controladora) en el equipo; y las ventajas no se reducen al número de
periféricos, sino también a su tipo: se puede conectar prácticamente
cualquier dispositivo (escáneres, impresoras, CD-ROM, unidades
removibles, etc.) siempre que cumplan con esta norma.
Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que
podemos conectar nuestro disco duro o CD-ROM (o lo que sea) a
ordenadores Macintosh, Amiga, etc., que empleen también la norma
SCSI. Un detalle a resaltar que todos los periféricos SCSI son
inteligentes; es decir, cada uno posee su propia ROM donde almacena
sus parámetros de funcionamiento. En especial, es la controladora el
dispositivo más importante de la cadena SCSI, que al poseer su propia
BIOS puede sobrepasar limitaciones de la ROM BIOS del sistema.
Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante
superior a IDE al no depender del bus del sistema; no obstante, no todo
iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las
ocasiones, más complejo de configurar, aunque esto último es cada vez
menos problemáticos, ya que es preciso resaltar que la norma SCSI
también ha evolucionado y mejorado; citaremos a continuación sus
diferentes modalidades.
Norma SCSI
Ancho Bus
Megas/segundo
SCSI-1
8 bits
3 Megas/s
SCSI-2
8 bits
5 Megas/s
Fast SCSI-2
8 bits
10 Megas/s
Fast/Wide SCSI-2
16 bits
20 Megas/s
Ultra SCSI
8/16 bits
20/40 Megas/s
Ultra2 SCSI LVD
8/16 bits
40/80 Megas/s
Otras formas de usar un disco duro
Si hay algo que resulta evidente, es que el disco duro siempre almacena
una valiosa información, y de su buen funcionamiento depende la
integridad de los datos. Si esto es importante en el ámbito particular,
imaginad a un nivel de entidades bancarias, grandes empresas,
administraciones públicas o ejército, cuyas instalaciones informáticas
normalmente son redes basadas en un servidor central. Si ese disco
duro falla, el resultado puede ser catastrófico.
Por este motivo, surge el término SFT (Sistema tolerante a fallos, o
System Fault Tolerance); se basa en el concepto de mantener tanto la
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
62
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 63 de
167
integridad de los datos cómo el correcto funcionamiento del sistema, en
el caso de un fallo de hardware. Este concepto aporta un nuevo término,
RAID (Redundant Array of Inexpensive Disks); se puede traducir como
Matriz Redundante de Discos Baratos, y sus diferentes modos de
implementación forman las llamados niveles RAID. Aunque existen
multitud de niveles, tocaremos más bien el concepto genérico; este se
basa en utilizar varios discos duros, conectados entre sí (aunque el
sistema cree que sólo existe uno), y que almacenan duplicados de la
información principal. Por tanto, si uno de ellos cae, el sistema no se
paraliza puesto que tenemos otros discos para sustituirlo, y, además,
con la información totalmente intacta.
Existen numerosísimas formas de implementar la tolerancia a fallos,
tanto por hardware como por software; podemos citar por ejemplo, el
Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye
entre los diferentes discos intalados), el Disk Mirroring (crea una copia
exacta, un espejo, del disco principal en otro secundario) y su variante
Disk Duplexing (añade una controladora para gestionar el disco
secundario y así reducir el tráfico) o el Disk Striping with Parity (variante
del Striping, que añade también información de paridad a los datos
guardados, empleada para recuperar la información en una hipotética
pérdida de la misma). Por último, la técnica de Sector Sparing consiste
en, tras la detección de un sector defectuoso del disco, sacar la
información del mismo, colocarla en un sector bueno y marcar como
defectuoso el sector erróneo.
Por supuesto, todas estas técnicas se efectúan en tiempo real, y
normalmente son los sistemas operativos de red (como Windows NT
Server o Novell Netware) los encargados de soportarlas. Asimismo, se
emplean casi siempre discos SCSI debido a sus características, como
flexibilidad o capacidad de ampliación; incluso técnicas como el Sector
Sparing deben ser usadas en discos SCSI, puesto que es imposible
aplicarlas con dispositivos IDE.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
63
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Capacidad
MFM
RLL
40
Mb
120
Mb
ESDI IDE EIDE
630
Mb
520
Mb
?
Página 64 de
167
SCSI-2
ULTRA
SCSI
?
?
ULTRA2
SCSI
LVD
16
Mb/s
33
Mb/s
5
7,5
10 Mb/s y
con
Mg/s (Mg/s
hasta
20
Tasa de
1
11
UDMA
40
=
=
Mb/s
en
transferencia
Mb/s Mb/s 33
Mb/s
0,625 0,9375
controladoras
66
Mb/s Mb/s
versión Fast
Mb/s
con
UDMA
66
80 Mb/s
Tiempo de
65
15
14
12
40 mb
10 ms
9 ms
?
acceso
ms
mb ms
ms
Notas: capacidad indica la cantidad máxima (en Megabytes) que puede
controlar el sistema. Tasa de transferencia expresada en Megabits
segundo (Mg/s) y en Megabytes por segundo (Mb/s). Tiempo de acceso
expresado en milisegundos. Puede variar según fabricantes.
Un poco de historia
Aparte del clarísimo crecimiento que se puede observar a lo largo de
todas estas tecnologías, el avance evolutivo es evidente también en
términos cronológicos. Por ejemplo, y también de forma orientativa,
podemos citar un “calendario” muy especial: durante el año 1992 y
principios del 93, los discos duros implementados más comúnmente en
los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y
primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo,
antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas.
1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes
de finalizar dicho año los discos de 620 y 850 Megas, e incluso se
alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también
eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos
de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. A
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
64
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 65 de
167
finales de 1999, se instalan discos de 8, 12 y 15 Gb llegando hoy
(año2005) a valores de hasta 250GB y más.
En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de
buena parte del profesional, debido a su buen rendimiento y mejor
precio. No obstante, es preciso recordar que SCSI es cada vez más
popular y asequible. En cualquiera de los casos, no debemos olvidar
que, para obtener el máximo rendimiento, el disco y la controladora
deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de
sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo
sucede con IDE: una controladora EIDE se verá frenada por un disco
IDE estándar y viceversa.
Por otro lado, la relación precio/Megabyte sigue más o menos la onda de
otros componentes informáticos; más que la bajada de precios, lo que
realmente ocurre es que se da más por el mismo precio.
Traslaciones y Managers de disco
A nadie le importa cuál es la geometría “Real” de un disco. De hecho,
incluso el número de sectores por pista es variable --hay más sectores
por pista conforme nos acercamos al borde exterior del disco-- por lo
que no hay un número de sectores por pista `verdadero'.
Para el usuario resulta más conveniente considerar un disco como una
simple serie lineal de sectores numerados como 0, 1, ..., y dejar a la
controladora el trabajo de encontrar en qué lugar del disco reside un
sector dado.
Esta numeración lineal se conoce como LBA. Las direcciones lineales
correspondientes a (c,h,s:
c=cilindros h=cabezas s=sectores) los
parámetros lógicos. Todas las controladoras SCSI “hablan” LBA, junto
con algunas IDE.
Si la BIOS convierte los (c,h,s) de 24 bits a LBA y le pasa eso a una
controladora que “entienda” LBA, entonces vuelven a ser accesibles
7.875 GB. No es suficiente para todos los discos, pero no deja de ser
constituir una mejora.
Téngase en cuenta que que aquí CHS, tal y como los usa la BIOS, no
tiene nada que ver con la `realidad'.
Algo similar funciona cuando la controladora no “habla'' LBA, pero la
BIOS sí sabe hacer la traslación. (En el setup esto se suele indicar como
“large''.) La BIOS presentará una geometría (C',H',S') al sistema
operativo, usando (C,H,S) para hablar con la controladora del disco.
Normalmente S = S', C' = C/N y H' = H*N, donde N es la menor
potencia de dos que asegura que C' <= 1024 (a fin de que se malgaste
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
65
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 66 de
167
la menor capacidad posible al redondear en C' = C/N). Nuevamente,
esto nos proporciona acceso a 7.875 GB.
Si la BIOS no sabe nada acerca de `LBA' o `Large', podemos recurrir a
ciertas soluciones software. Los Disk Managers o Gestores de Disco
como OnTrack o EZ-Drive reemplazan las rutinas de gestión de disco por
otras suyas. Esto se lleva a cabo normalmente haciendo residir el código
del gestor de disco en el MBR y sectores subsecuentes (OnTrack llama a
este código DDO: Dynamic Drive Overlay, algo así como Superposición
Dinámica de Disco, de modo que sea arrancado antes que cualquier otro
sistema operativo. Esa es la razón por la que se pueden tener problemas
arrancando desde disquete cuando se ha instalado un Gestor de Disco.
Esto no significa que no pueda hacerse de modo seguro; los gestores
suelen proveer utilidades para hacer disquetes especiales de arranque
El efecto es más o menos el mismo que cuando se hacen traslaciones
vía BIOS, pero --especialmente cuando haya distintos sistemas
operativos en el mismo disco-- con la salvedad de que pueden causar
bastantes problemas.
MÓDULO # 8: Dispositivos de almacenamiento – Periféricos
comunes
OBJETIVOS
Conectar diferentes dispositivos de almacenamiento y conocer su
configuración a través del Setup.
Proporcionar la teoría sobre diferentes periféricos comunes, y
tarjetas internas.
SECCIÓN 1: Práctica ensamble equipo K6 completo. (PRÁCTICA)
LA TARJETA DE SONIDO
Antes de 1984 las computadoras no producían mas que el sonido de los
ventiladores internos y el de las disqueteras. Pero, corre el rumor que
allá por 1984, un miembro del primer grupo desarrollador de la
Macintosh le propuso a Steve Jobs incluir en la computadora un chip que
permitiera la gestión del sonido (PC Speaker) con un presupuesto de
menos de tres dólares por máquina. Esto ocurrió un viernes y Steve
Jobs respondió que sí. El lunes por la mañana el prototipo estaba
construido y libre de bugs, las computadoras Macintosh incorporarían
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
66
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 67 de
167
sonido. Gracias a la capacidad de ese trabajador anónimo, desde junio
de 1984 es una realidad. Y esa realidad ha evolucionado tanto que en
este momento una computadora Macintosh, o cualquier computadora,
puede grabar y reproducir audio con calidad profesional.
En términos físicos la tarjeta
de sonido es un placa que se
conecta a la placa principal
(mainboard) a través de slots
que pueden ser de tecnología
PCI, ISA, VESA, etc.(Según la
tecnología de la tarjeta); pero
actualmente las tarjetas de
sonido están adheridas al
mainborad, lo cual da un
tiempo de acceso más rápido.
Las tarjetas de sonidos más
antiguas trabajan con una
longitud de 8 bits, las cuales
se han ido descartando con la presencia de tarjetas con longitud de 16
bits y hasta 32 bits en audio profesional, las cuales ofrecen una mayor
definición del sonido reproducido y grabado.
Síntesis de sonidos con una tarjeta de sonidos.
Cuando una tarjeta crea un sonido y no lo reproduce de una grabación,
se dice que un sonido es sintetizado. La tarjeta actúa como un
instrumento musical, por ejemplo una guitarra. Durante varios años, las
tarjetas de sonido crearon efectos musicales por medio de una
tecnología simple denominada síntesis FM; los sonidos creados de esta
manera no son iguales a los que se crean con un instrumento musical
verdadero y mucho menos pueden compararse con una guitarra de
verdad. Al jugar con las frecuencias (cambiar la velocidad y mezclar los
tonos) la tarjeta puede crear sonidos que más o menos se asemejan a
instrumentos musicales. Aun así, es notorio que los instrumentos son
producidos por una computadora. La tecnología wavetable es superior
a la síntesis FM, pues las tarjetas de sonido ya no crean música con
tonos computarizados. Más bien, estas tarjetas de sonido buscan el
instrumento deseado en una tabla (una selección integrada con
grabaciones reales) y crean el sonido con base en la muestra. Las
mejores tarjetas wavetable almacenan todos los sonidos en sus
propios chips de Sólo lectura (ROM) para un acceso más fácil. Otras
tarjetas cuentan con algunos sonidos en su memoria ROM y eligen el
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
67
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 68 de
167
resto de ellos sobre la marcha desde el disco dura o la RAM. Aun cuando
esto puede originar problemas a los usuarios que cuenten sin espacio
limitado en sus discos duros, dichas tarjetas son por lo general de mejor
calidad.
Reproducción y grabación de sonidos con una tarjeta de sonidos.
Además de simular el sonido de un instrumento, las tarjetas de sonido
pueden grabar el sonido de un instrumento verdadero. En realidad, las
tarjetas actúan como una grabadora de cinta computarizada. Para
grabar datos, la computadora los convierte en números digitales y el
sonido no es la excepción. Cuando una onda de sonido fluye a través del
cable de conexión, la computadora mide su amplitud a intervalos
regulares de tiempo y convierte la onda análoga en muestras, las cuales
se traducen en datos digitales que son grabados en un archivo. Este
proceso se conoce como conversión análoga a digital. Para reproducir el
sonido almacenado, la computadora busca la medición realizada y
vuelve a crear dicho sonido. Es decir, convierte los niveles a los que
corresponde el número digital guardado a niveles de voltaje de una
señal eléctrica continua, la cual viaja a través del cable hacia los
audífonos sin ser amplificada. La precisión que necesita la computadora
depende si la longitud es de 8 bits o de 16 bits. Cuando se graba por
medio de una tarjeta de 8 bits, la computadora utiliza una especie de
regla para medir y divide el sonido en 256 posibles longitudes. En
cambio, cuando se graba por medio de una tarjeta de 16 bits, la
computadora utiliza una regla más precisa, esta vez divide el sonido en
65,536 posibles longitudes. Como es obvio, una tarjeta de 16 bits
realiza un trabajo de medición mucho más preciso y esto da como
resultado un mejor sonido al momento de reproducirlo.
Debido a que las ondas de
sonido se mueven de manera
constante,
entonces
la
computadora las mide con
cierta frecuencia. Es aquí
donde hacen su aparición los
Kilohertz
(KHz).
Si
la
computadora
mide
la
amplitud de las onda 11,000
veces por segundo, habrá
grabado un sonido a 11,000
Hz. Si la medición se realiza
44,000 veces por segundo, el
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
68
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 69 de
167
sonido se habrá grabado en 44,000 Hz. Este índice de grabación se
conoce como frecuencia o tasa de muestreo. Un aumento en la tasa de
muestreo o en la definición implica una mayor demanda de rendimiento
y almacenamiento. Por ejemplo, los datos de 16 bits contienen el doble
de información que los de ocho bits; una tasa de muestreo de 44.1 KHz
requiere el doble que una de 22.05 KHz; el sonido estereofónico
requiere el doble del monaural. Esto hace que las necesidades de
rendimiento y almacenamiento vayan desde aproximadamente 1.25 Mb
por minuto en el caso de audio monaural de 8 bits a 22.01 KHz hasta 10
Mb por minuto para el audio estereofónico de 16 bits a 44.1 KHz.
El puerto MIDI
Este puerto es igual al puerto de juegos pero sirve para interconectar
instrumentos musicales de acuerdo a un estándar. Veamos los orígenes
de este estándar que revolucionó en su momento y sigue siendo una de
los principales herramientas en la tecnología musical actual.
Hasta 1983, la mayoría de los instrumentos musicales electrónicos
avanzados sólo podían comunicarse con productos del mismo fabricante.
Aunque había muchos enfoques de sistemas patentados disponibles, los
sistemas sinérgicos de música electrónica infinitamente expansibles
seguían siendo un sueño. La inclusión de un microprocesador en los
instrumentos preparó el camino para MIDI (Interfaz digital de
instrumento musical), un protocolo de comunicación en serie diseñado
específicamente para los dispositivos de música electrónica. Un grupo
conjunto de fabricantes de instrumentos musicales electrónicos,
apropiadamente llamado MIDI Manufacturers Association (MMA) es el
responsable del desarrollo y evolución de MIDI. MIDI revolucionó la
industria de la grabación prácticamente de la noche a la mañana al
hacer posible un control central sobre muchos instrumentos, como si se
tratara de una orquesta electrónica. Pocas grabaciones de música pop
se realizan sin ella. MIDI se encuentra ahora en casi todos los
instrumentos musicales electrónicos y ha preparado el camino para un
especie de aldea global de la música electrónica. Además, hay interfaces
y software MIDI disponibles para casi todas las computadoras
personales.
Nociones generales de MIDI.
MIDI no encarna el audio digital, sino que contiene instrucciones que
controlan cómo y cuando los dispositivos (como los sintetizadores
digitales) producen sonido. Podemos considerar a MIDI como una
especie de PostScript para la música. PostScript describe objetos, en vez
de vaciarlos en un mapa de bits. MIDI describe los elementos de la
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
69
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 70 de
167
ejecución musical, en vez de vaciarlos en los flujos de bits del audio
digital. Al igual que PostScript, MIDI es independiente del dispositivo y
de la definición. Una ejecución MIDI se puede orquestar en cualquier
equipo compatible con MIDI, y la calidad del sonido será la del
dispositivo de salida.
En su forma más simple, la conexión de la salida MIDI de un
instrumento (el maestro) a la entrada MIDI de otro (un esclavo) permite
al ejecutante controlar el esclavo desde el maestro. Así, si se toca un
DO medio en el maestro, el esclavo también producirá un DO medio. La
ventaja inmediata es la superposición de timbres de dos o más
instrumentos.
La potencia de MIDI radica en su capacidad para enviar y recibir
información de ejecución en cualquiera de 16 canales distintos y
separados. El concepto de canal es similar al que manejamos en el caso
de transmisiones de televisión y televisores. Aunque el cable o antena
en nuestro hogar lleva simultáneamente transmisiones de muchos
canales distintos, el receptor de televisión toma sólo la información del
canal que seleccionamos. Lo mismo sucede con MIDI; aunque es posible
que el conducto MIDI lleve muchos canales de datos de ejecución al
mismo tiempo, un esclavo ajustado para recibir el canal 1 sólo
responderá a la información que tenga el identificador de ese canal.
Muchos de los instrumentos digitales actuales pueden producir más de
un timbre simultáneamente, cada uno en respuesta a un canal MIDI
distinto. Esto es similar a los televisores digitales que pueden exhibir
múltiples canales en ventanas simultáneas.
La importancia de MIDI se hace evidente cuando se añade un
secuenciador: hardware y/o software que graba, edita y reproduce
datos MIDI en tiempo real.
Al igual que las grabadoras de cinta multipistas, los secuenciadores
cuentan con varias pistas que pueden servir para grabar elementos
discretos de una ejecución. La posibilidad de asignar pistas a canales
MIDI de transmisión discretos es la base para las composiciones y
orquestaciones electrónicas avanzadas que hallamos hoy día en muchos
de los éxitos musicales y en las bandas sonoras de las películas. Esta
misma tecnología adquiere cada vez más importancia para las bandas
sonoras de multimedios.
DIRECCIONALIDAD DEL SONIDO
Nuestro sentido de dirección depende en gran medida de nuestros oídos.
El método que empleamos para localizar un sonido difiere para las
frecuencias por arriba y por debajo de 100 Hz. Por debajo de 100 Hz, las
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
70
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 71 de
167
ondas que llegan a un oído están fuera de fase con las que llegan al
otro, porque la longitud de onda es mayor que la distancia entre los
oídos. El cerebro puede asociar cierta direccionalidad a este fenómeno,
pero es difícil atribuir una ubicación exacta a la fuente de sonido. Como
la longitud de onda de las frecuencias por arriba de 100 Hz es más corta
que la distancia entre los oídos, las ondas sonoras que llegan a éstos
están en fase; la diferencia de sus amplitudes permite al cerebro ubicar
el origen del sonido.
Por eso, últimamente las tarjetas de
sonidos vienen con una tecnología de
sonido 3D, la cual da un sonido
direccional al oyente, u orienta la
dirección del sonido emitido por los
altavoces,
basándose
en
lo
mencionado anteriormente. El sonido
3D, incluye el sonido Dolby Surround,
con la cual se distingue la ruta del
sonido. Las multimedias actuales la
incluyen, tanto en su hardware como
en su software.
Protocolos de audio digital.
Hay ocasiones en que es necesario transferir información de audio
digital en tiempo real entre dos dispositivos. Los protocolos de
comunicación más comunes en multimedios de escritorio son AES/EBU,
SDIF-2 y S/PDIF. AES/EBU fue desarrollado de manera conjunta por la
Audio Engineering Society y la European Broadcast Union, y la utiliza la
mayoría de los sistemas profesionales de audio digital. Es una interfaz
RS-422 de dos canales que utiliza líneas balanceadas y conectores XLR o
D-sub. SDIF-2 (formato de interfaz digital Sony) se encuentra en
dispositivos de grabación PCM basados en videocinta; utiliza líneas
balanceadas de 75 ohms con conectores BNC. S/PDIF (formato de
interfaz digital Sony/Phillips) fue desarrollado de manera conjunta por
Sony y Phillips. En esencia, es una versión no balanceada del protocolo
AES/EBU y utiliza conexiones RCA o de fibras ópticas. Este protocolo se
utiliza en grabadoras de DAT y reproductoras de CD.
El sonido 3D consiste en añadir un efecto dimensional a las ondas
generadas por la tarjeta; estas técnicas permiten ampliar el campo
estéreo, y aportan una mayor profundidad al sonido habitual.
Normalmente, estos efectos se consiguen realizando mezclas específicas
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
71
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 72 de
167
para los canales derecho e izquierdo, para simular sensaciones de hueco
y direccionalidad.
Seguro que os suenan nombres como SRS (Surround Sound), Dolby
Prologic o Q-Sound; estas técnicas son capaces de ubicar fuentes de
sonido en el espacio, y desplazarlas alrededor del asombrado usuario. Y
decimos asombrado, porque el efecto conseguido es realmente
fantástico, y aporta nuevas e insospechadas posibilidades al software
multimedia y, en especial, a los juegos. Es fácil hacer una
recomendación en este tema: ¡No renunciéis al sonido 3D!
MÓDULO # 9: Tarjeta de video
LA TARJETA DE VIDEO
La tarjeta de video, (también llamada controlador de video), es un
componente electrónico requerido para generar una señal de video que
se manda a una pantalla de video por medio de un cable. La tarjeta de
video se encuentra normalmente en la placa de sistema de la
computadora o en una placa de expansión. La tarjeta gráfica reúne toda
la información que debe visualizarse en pantalla y actúa como interfaz
entre el procesador y el monitor; la información es enviada a éste por la
placa luego de haberla recibido a través del sistema de buses. Una
tarjeta gráfica se compone, básicamente, de un controlador de video, de
la memoria de pantalla o RAM video, y el generador de caracteres, y en
la actualidad también poseen un acelerador de gráficos. El controlador
de video va leyendo a intervalos la información almacenada en la RAM
video y la transfiere al monitor en forma de señal de video; el número
de veces por segundo que el contenido de la RAM video es leído y
transmitido al monitor en forma de señal de video se conoce como
frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes,
la frecuencia depende en gran medida de la calidad de la placa de video.
Actualmente existen chips para tarjetas gráficas muy potentes, la
mayoría de las veces con potencia de cálculo superior a la del
procesador principal, pero también muy diferentes entre sí. Hace
algunos años, no se le prestaba en absoluto atención a la calidad de la
tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de
partida a la hora de mejorar estas tarjetas, ya que, junto con la
evolución de la tecnología en los monitores, cada vez soportaban
mayores resoluciones al incorporar memorias entre 1 y 3 Mb.
Pero la auténtica revolución gráfica fue en el sector tridimensional, el
3D, donde se necesitan potencias de cálculo muy superiores que el
microprocesador central no puede soportar. Fundamentalmente, lo que
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
72
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 73 de
167
hace un chip 3D es quitar la labor del procesador de generar los
triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo
haga sola liberando al procesador de otras tareas. Con esto, se obtiene
una mejora muy grande en lo que se refiere a la velocidad, y además se
han incorporado multitud de efectos gráficos fáciles de usar por los
programadores que mejoran sustancialmente la calidad de los gráficos.
Las primeras tarjetas con 3D para el mercado de consumo fueron
aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser
demasiado rápidas y con un soporte de juegos muy limitado.
Actualmente, en el mercado de consumo, existen 2 tipos de
aceleradoras gráficas:
Las propias aceleradoras 3D, tarjetas independientes que sólo entran en
funcionamiento cuando se ejecuta algún juego que necesite su
funcionamiento. Estas tarjetas requieren una tarjeta 2D que se
encargue de las tareas normales, con un único requisito de tener un
mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un
cable externo.
Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único
chip que se encarga tanto de las funciones 2D como de las funciones 3D
de una aceleradora. Los últimos modelos que están apareciendo estos
meses son realmente buenos y no tienen nada que envidiar a las
aceleradoras 3D puras.
COMPONENTES DE LA TARJETA GRÁFICA
El procesador: El componente básico de la tarjeta. Se va a encargar de
procesar (parece acorde con el nombre) la información que le llega y
convertirla en imágenes. Hay muchas marcas y modelos de
procesadores pero se encontrara
una lista de los más frecuentes en
chipsets.
Actualmente,
los
procesadores
asumen
la
responsabilidad de manejar los
gráficos en dos (y muchas veces
en
tres)
dimensiones,
la
aceleración de vídeo, liberando así
al
procesador
para
otros
cometidos. Pero lo más importante
es que la calidad de nuestra tarjeta
no sólo depende de este chip,
porque
el
resto
de
los
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
73
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 74 de
167
componentes también cuenta. Este procesador se designa como GPU
(Graphics Process Unit), dada la función que desempeña.
La memoria: A diferencia de lo que pasa con la memoria que usa el
procesador del sistema (Pentium , K6, etc.), más memoria no significa
más velocidad necesariamente. Hoy en día , todas las tarjetas gráficas
tienen procesadores de 64 o de 128 bits, pero sólo trabajan en 64 bits
cuando tienen 2 Mb de RAM . El ejemplo más típico es el de las tarjetas
con chip S3 Trio 64 V (ver luego en chipsets) , uno de los más
populares, que se suele entregar con 1 Mb de RAM. Bueno, pues con
otro mega más el rendimiento de la tarjeta sube entre un 25 (para 256
colores) y un 600 % (para 16 millones de colores). Si se quiere
aceleración 3D, se debera saber que la tarjeta sólo acelerará las
texturas si dispone de 4 Mb de RAM. Con sólo dos, no se podra más que
notar aceleración en el dibujado de polígonos, lo cual no es mucho.
Además hay diversos tipos de memoria para tarjeta gráfica que podrán
estar o no soportados por nuestro procesador:
1. EDO RAM: Idéntica a la que se describe en la página de la memoria
RAM. Es la más lenta, pero con un procesador rápido esto da igual. Sólo
tiene un puerto de entrada/salida de comunicación con el procesador
por lo que en un momento determinado sólo puede mandar
o recibir datos.
2. SDRAM: Es igual que la que aparecía en la página ya mencionada.
También es de un sólo puerto, pero es un 40 % más rápida que la
anterior .
3. SGRAM (Synchronous Graphics RAM): Es una memoria de tipo
SDRAM optimizada para gráficos por lo que da un rendimiento algo
mejor (5-10%) que la anterior. También es de un sólo puerto.
4. VRAM (Vídeo RAM): Tiene un puerto de entrada y otro de salida,
por lo que la tarjeta puede estar enviando y recibiendo al mismo tiempo
. Esto la hace idónea para trabajar con muchos colores (a más colores,
más memoria necesitada), pero también es más cara que la memoria
EDO.
5. WRAM: También dispone de doble puerto pero es un 25 % más
rápido que la VRAM , porque dispone de funciones de aceleración en
operaciones de relleno de bloques lo que la hace óptima para manejar
entornos gráficos basados en ventanas (La W es por Windows).
6. El RAMDAC. Son las siglas de Random Access Memory Digital to
Analog Converter (Convertidor Digital a Analógico de Memoria de Acceso
Aleatorio). Este chip sirve para realizar la conversión de los datos
digitales del color de cada punto a componentes analógicos de rojo,
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
74
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 75 de
167
verde y azul (RGB: red, green, blue) para ser enviados al monitor. Para
saber lo rápido que es, debemos mirar el ancho de banda del RAMDAC,
que se mide en megahercios (igual que la velocidad del procesador. Un
RAMDAC lento hará que la pantalla no se refresque suficientemente
rápido, produciendo parpadeo y cansando nuestra vista. Hoy en día,
podemos encontrar RAMDAC de hasta 300 MHz.
EVOLUCIÓN DE LAS TARJETAS DE VIDEO
En los primeros PC las necesidades de visualización prácticamente se
restringían a la posibilidad de ver caracteres alfanuméricos, sin embargo
con el transcurso del tiempo, esta tarjeta se ha convertido en uno de los
periféricos más importantes, llegando incluso a contener chips gráficos
que trabajan a velocidades superiores a las del procesador central.
Monochrome Display Adapter (MDA)
Las primeras tarjetas de video usadas en las máquinas más antiguas, se
conformaron como el estándar MDA, establecido por IBM como parte del
PC original. MDA es un estándar monocromático de texto solamente,
que permite la visualización de texto en 80x25 caracteres por pantalla.
Cada carácter se compone de una matriz de 9 puntos de ancho por 14
puntos de alto, dando una resolución eficaz de 720x350 con un índice de
refresco de 50 hertzios (por supuesto es texto-solamente así que estos
puntos no son direccionables individualmente). Obviamente, MDA está
más que obsoleto. Sin embargo, fue una buena solución para las
capacidades limitadas del PC original.
Hercules Graphics Card
Una debilidad de la tarjeta de video MDA era que no admitía gráficos de
ninguna clase. Una compañía llamada Hércules, creada a principios de
los 80s creó una tarjeta video compatible con MDA que soportaba
gráficos monocromáticos además de los modos de texto estándar. La
tarjeta
Hércules era verdaderamente un estándar ampliamente
aceptado a mediados de los años ochenta; incluso eventualmente
aparecieron tarjetas hércules clónicas en el mercado. La asistencia para
la tarjeta fue incluida en paquetes de software populares tales como loto
1-2-3 para permitir la exhibición de gráficos y de cuadros en la pantalla
de computadora. Por supuesto fue sustituida
más adelante por
adaptadores gráficos a color.
Color Graphics Adapter (CGA)
La CGA utiliza el mismo chip que la Hércules y aporta resoluciones y
colores distintos. Los tres colores primarios se combinan digitalmente
formando un máximo de ocho colores distintos. La resolución varía
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
75
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 76 de
167
considerablemente según el modo de gráficos que se esté utilizando,
como se ve en la siguiente lista:
160 X 100 PUNTOS CON 16 COLORES
* 320 X 200 PUNTOS CON 4 COLORES
* 640 X 200 PUNTOS CON 2 COLORES
La tarjeta EGA
Enchanced Graphics Adapter (EGA). Se trata de una tarjeta gráfica
superior a la CGA. En el modo texto ofrece una resolución de 14x18
puntos y en el modo gráfico dos resoluciones diferentes de 640x200 y
640x350 a 4 bits, lo que da como resultado una paleta de 16 colores,
siempre y cuando la tarjeta esté equipada con 256KB de memoria de
video RAM.
La tarjeta VGA
La Video Graphics Adapter (VGA) significó la aparición de un nuevo
estándar del mercado. Esta tarjeta ofrece una paleta de 256 colores,
dando como resultado imágenes de colores mucho más vivos. Las
primeras VGA contaban con 256KB de memoria y solo podían alcanzar
una resolución de 320x200 puntos con la cantidad de colores
mencionados anteriormente. Primero la cantidad de memoria video RAM
se amplió a 512KB, y más tarde a 1024KB, gracias a ésta ampliación es
posible conseguir una resolución de, por ejemplo, 1024x768 píxeles con
8 bits de color. En el modo texto la VGA tiene una resolución de
720x400 pixeles, además posee un refresco de pantalla de 60HZ, y con
16 colores soporta hasta 640X480 puntos.
La tarjeta SVGA
La tarjeta SVGA (Super Video Graphics Adapter) contiene conjuntos de
chips de uso especial, y más memoria, lo que aumenta la cantidad de
colores y la resolución.
Super VGA (SVGA) y otros estándares posteriores a VGA
VGA fue el último estándar bien definido y universalmente aceptado
para el vídeo. Después de que la IBM se dejara de liderar el mundo de la
PC muchas compañías llegaron al mercado y crearon tarjetas nuevas
con más resolución y profundidades de color que VGA estándar (pero
casi siempre, compatible con VGA).
La mayoría de las tarjetas video (y los monitores para PC) se anuncian
hoy como siendo Super VGA (SVGA). ¿Qué realmente significa una
tarjeta que dice que es SVGA? Desafortunadamente, no significa mucho
de nada. SVGA se refiere colectivamente a cualquiera y a todo el
conjunto de resoluciones, de los modos del color y de los pseudoestándares pobremente aceptados que se han creado para ampliar las
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
76
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 77 de
167
capacidades de VGA. Por lo tanto, sabiendo que una tarjeta que soporta
"Super VGA" realmente no dice nada del todo.
En el mundo actual de múltiples estándares de video se tiene que
descubrir específicamente qué resoluciones, profundidades de color y
tasas de refresco soporta cada tarjeta. También hay que cerciorarse de
que el monitor que se está utilizando admite los modos que la tarjeta de
video produce; nuevamente "Super VGA compatible" en el monitor no
tampoco ayuda.
Para hacer las cosas aún más confusas, otro término que se utiliza a
veces: Ultra VGA o UVGA. Como SVGA, este término realmente tampoco
significa nada. A alguna gente le gusta referirse a VGA como resolución
640x480, a SVGA como 800x600, y a UVGA como 1024x768. Esto ha
terminado siendo extremadamente simplista sin embargo, y realmente
no es algo en lo cual se puede confiar.
La proliferación de chipsets y de los estándares de video ha creado la
confianza en los controladores o “drivers” de software que los usuarios
de la PC han venido a conocer tan bien. Mientras que Microsoft
Windows, por ejemplo, tiene un controlador genérico de VGA que
trabaja con casi cualquier tarjeta video que existe, usar las capacidades
de resolución más altas de una tarjeta de video, requiere un controlador
específico hecho para trabajar con dicha tarjeta. (los estándares de
VESA han cambiado esto en parte, pero no completamente).
La IBM creó varios nuevos estándares de video después de VGA con lo
que amplió sus capacidades. Comparado con VGA, éstos han recibido
una aceptación muy limitada en el mercado, principalmente porque
fueron implementadas en tarjetas que utilizaban el bus popietario de la
IBM de arquitectura micro canal MCA (que no recibió ninguna aceptación
en el mercado). Otros intentos de estandarización fueron:
· 8514/A: Este estándar fue introducido realmente al mismo tiempo
que el estándar VGA y proporciona modos más altos de resolución y
color con algunas capacidades de aceleración de video por hardware
también. Para los estándares modernos 8514/A sigue siendo algo
primitivo: soporta gráficos de 1024x768 en 256 colores pero solamente
en 43.5 hertz (entrelazado), o 640x480 a 60 hertz (no entrelazado).
· XGA: Estas siglas significan extended graphics Array. Las tarjetas XGA
fueron utilizadas en los últimos modelos PS/2; pueden ejecutar bus
mastering en MCA y utilizan 512 KB o 1 MB de VRAM. En la
configuración de 1MB, XGA soporta gráficos de 1,024x768 en 256
colores, o 640x480 en alto color (16 bits por pixel).
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
77
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 78 de
167
· XGA-2: Este modo de gráficos mejora XGA extendiendo el soporte a
1,024x768 en alto color, y también soporta tasas de refresco más altas
que XGA o 8514/A.
Actualmente existen chips para tarjetas gráficas muy potentes, la
mayoría de las veces con potencia de cálculo superior a la del
procesador principal, pero también muy diferentes entre sí. Hace
algunos años, no se le prestaba en absoluto atención a la calidad de la
tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de
partida a la hora de mejorar estas tarjetas, ya que, junto con la
evolución de la tecnología en los monitores, cada vez soportaban
mayores resoluciones al incorporar memorias entre 1 y 3 Mb.
Pero la auténtica revolución gráfica fue en el sector tridimensional, el
3D, donde se necesitan potencias de cálculo muy superiores que el
microprocesador central no puede soportar. Fundamentalmente, lo que
hace un chip 3D es quitar la labor del procesador de generar los
triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo
haga sola liberando al procesador de otras tareas. Con esto, se obtiene
una mejora muy grande en lo que se refiere a la velocidad, y además se
han incorporado multitud de efectos gráficos fáciles de usar por los
programadores que mejoran sustancialmente la calidad de los gráficos.
Las primeras tarjetas con 3D para el mercado de consumo fueron
aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser
demasiado rápidas y con un soporte de juegos muy limitado.
La decisión de elegir un chip u otro es bastante compleja. Dentro del
campo 2D, gracias al estándar VESA, todas las tarjetas son compatibles
entre sí. Sin embargo, en los chips 3D (o la parte 3D de los chips
2D/3D), existen más problemas puesto que no todos contienen las
mismas instrucciones (¿quién no ha oído hablar de los famosos parches
para una u otra tarjeta?). Esto pasaba sobre todo en los primeros
juegos acelerados 3D para MS-DOS. Por ello, se han creado unos APIs,
que consiguen solucionar estos problemas, y funcionan bajo Windows
95/98. Éstos son el DirectX de Microsoft (el componente Direct 3D en
concreto) y el OpenGL de Silicon Graphics. Más abajo tienes infromación
sobre estos APIs. Y también, hay que recordar que no todas las tarjetas
3D son iguales: unas sirven digamos para "trabajar" (las compatibles
con programas como 3D Studio, TrueSpace...) y las que sirven para
"jugar". Muy pocas tarjetas se desenvuelven bien en estos dos campos.
Y ya para terminar este apartado, dejemos fijadas ciertas bases de
conocimiento:
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
78
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 79 de
167
Actualmente, en el mercado de consumo, existen 2 tipos de
aceleradoras gráficas:
o Las propias aceleradoras 3D, tarjetas independientes que
sólo entran en funcionamiento cuando se ejecuta algún
juego que necesite su funcionamiento. Estas tarjetas
requieren una tarjeta 2D que se encargue de las tareas
normales, con un único requisito de tener un mínimo 2 Mb.
de memoria. Además, ambas suelen estar unidas con un
cable externo.
o Y luego están las tarjetas "híbridas" 2D/3D, que consisten
en un único chip que se encarga tanto de las funciones 2D
como de las funciones 3D de una aceleradora. Los últimos
modelos que están apareciendo estos meses son realmente
buenos y no tienen nada que envidiar a las aceleradoras 3D
puras.
Y ya por último, ten en cuenta que las tarjetas aceleradoras
pueden servir para "trabajar" o para jugar. Una aceleradora
profesional de 300.000 ptas. será incapaz de acelerar cualquier
juego normal, y una aceleradora 3D pura de 30.000 no podrá
renderizar ningún tipo de gráfico en programas como 3D Studio o
TrueSpace. Hay muchas tarjetas híbridas 2D/3D que pueden
acelerar juegos muy bien, y también renderizar gráficos
profesionales de una manera bastante aceptable.
Librerías y APIs
Cada chip gráfico tiene una forma de procesar las rutinas
implementadas en ellos, por lo que hay una incompatibilidad (sobre todo
en el 3D, ya que en el 2D existe el estándar VESA que libera de estos
problemas).
Para ello, han surgido las librerías de programación, para unificar en un
API las diferentes funciones, y destacan 2:
OpenGL, de Silicon Graphics, que está adoptada por sistemas
como Unix, Iris, Windows NT, para profesionales.
DirectX, de Microsoft, limitada a Windows 95/98 y dedicada a los
juegos.
Depende de nuestro uso del ordenador, nos decantaremos por el
soporte de uno u otro (aunque hay varias tarjetas gráficas que soportan
los dos).
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
79
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 80 de
167
La controladora de vídeo en un ordenador es la responsable de
transmitir la información al monitor para que la podamos ver en la
pantalla. Hay una gran variedad de tarjetas de vídeo, cada una con sus
características especiales. Cuantos más píxeles sean capaces de dibujar
en pantalla por la unidad de tiempo, mejor rendimiento obtendremos en
las aplicaciones que usen intensivamente los gráficos, como por ejemplo
Windows. Vamos a poneros un ejemplo para comprenderlo con un par
de imágenes:
640x480 a 256 colores
1280x1024 a 256 colores
1. Puedes ver cómo en en primer caso, los iconos se ven más
grandes y, por tanto, caben menos. Por consiguiente, el logotipo
de Duiops se verá con menos definición y más "cuadriculado". Las
ventanas se colocarán unas encimas de otras y el trabajo se hará
muy engorroso.
2. En el segundo caso, los iconos se ven más pequeños y, por tanto,
caben más. Por consiguiente, el logotipo de Duiops se verá con
más definición y más perfilado. Los píxels son muy difíciles de
apreciar. Las ventanas podrán abrirse una al lado de la otra, de
forma que se vea el contenido de ambas, y el trabajo será más
amigable.
Pero todos estos puntos necesitan almacenarse en RAM. Para ello, las
tarjetas gráficas tienen chips de memoria, y hoy día el mínimo que se
puede encontrar son 4 Mb, aunque se recomienda un mínimo de 8. Para
poder conseguir mayores resoluciones a más cantidades de colores, hay
que ampliar la memoria. Para saber la que necesitamos, hay que
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
80
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 81 de
167
multiplicar la resolución horizontal por la resolución vertical; esto nos da
la cantidad de RAM necesaria para trabajar a 8 bits de color. Es preciso
multiplicar el resultado por dos para obtener la cantidad necesaria para
16 bits de color, y por tres para los 24 bits. Hoy día las tarjeras gráficas
domésticas llevan hasta 32 Mb de memoria, los cuales permiten
alcanzar resoluciones tan asombrosas como 2048x1536 a 32 bits (más
de 4.000 millones de colores)
Recordemos que más memoria en la tarjeta gráfica no implica mayor
velocidad, a no ser que la utilice como memoria caché.
También hay que tener en cuenta el tipo de memoria incorporada;
frente a la DRAM clásica es mejor utilizar otros tipos, como la EDO o la
VRAM; al disponer ésta de dos puestos permite aumentar el ancho de
banda en las transferencias de información.
Otra opciones, como la WRAM (que optimiza las operaciones de manejo
de bloques de memoria), la MDRAM (memoria multibanda que no
retarda los procesos de conmutación de bancos) o la SDRAM (RAM
síncrona capaz de trabajar a la misma velocidad de reloj que el chip de
la tarjeta) deben ser considerada.
Las últimas tarjetas utilizan SGRAM, de dos tipos. Podemos encontrar
memoria DDR en algunas tarjetas (Double Data Rate), la cual
aprovechando ciertas fases del ciclo de reloj hasta ahora no utilizados,
es capaz de proporcionar un notable incremento en el ancho de banda
disponible, con respecto a la memoria convencional SDR (Single Data
Rate). Cuando más aumentas la resolución más "atasco" se produce
debido a las limitaciones propias de la memoria. Con el sistema DDR
esta limitación ya no existe y es posible utilizar resoluciones de
1280x1024 e incluso de 1600x1280 sin ninguna pérdida de velocidad.
BUSES DEDICADOS PARA GRÁFICOS
Los primeros PC utilizaban tarjetas ISA de 8 y 16 bits, con la aparición
de VESA las tarjetas gráficas utilizaron las ventajas que este tipo de bus
proporcionaba, específicamente por las velocidades de transmisión de
información, pero fue realmente con el surgimiento de PCI y su
consolidación como estándar que se establecieron buses específicos para
gráficos. En la actualidad normalmente las placas base cuentan con la
funcionalidad de video incorporada y con un bus AGP o PCI Express
opcional para aumentar las capacidades de video del PC.
Las placas de video se fabrican hoy día para buses PCI y AGP (estos
buses permiten características como Plug and Play y Bus Mastering, ésta
última para optimizar las operaciones de transferencia de la tarjeta).
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
81
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 82 de
167
Estas tarjetas se suelen usar en ordenadores Pentium o Pentium II y
equivalentes (como el K6 o el K6-2 de AMD). Se puede aún encontrar de
segunda mano alguna ISA para ordenadores 386 y 486, y las VESA
están ya abandonadas. Lo único, decir que las tarjetas AGP, usadas en
ordenadores Pentium II/III son capaces de usar la memoria RAM como
memoria de texturas, es decir, no sólo la memoria que viene incluida en
la tarjeta gráfica. Por ello, los pocos juegos que hay actualmente para
AGP, son capaces de tener texturas animadas o de alta resolución
moviéndose a una velocidad asombrosa. Esta memoria de texturas no
está disponible para placas Socket 7 ni para placas Slot A con el Athlon
de AMD. Además, el AGP ofrece un ancho de banda superior al PCI: si el
PCI va a 66 MHz, el AGP va a 133 MHz, con unas variantes: el AGP 2x a
266 MHz y el AGP 4x a 533 MHz. Lástima que los programas actuales no
exploten sus posibilidades, pero esto terminará con el AGP 4x que
llegará en 1.999. Y por último, hay que decir que no todas las tarjetas
AGP son "AGP verdaderas", es decir, que utilizan la memoria RAM como
mmoria de texturas. Las AGP no verdaderas son todas aquellas que
tienen tanto versión PCI como AGP, o bien que la versión AGP ha
evolucionado de la PCI (puede haber que tenga versión PCI y luego una
versión AGP verdadera). Y las AGP verdaderas son aquellas que han sido
diseñadas para tal fin, y que sólo existen en versión AGP. Todas las
tarjetas AGP verdaderas hoy día son 2x, mientras que las AGP que no
utilizan la memoria RAM como memoria de texturas son 1x (un modo
sencillo de diferenciarlas). También se pueden diferenciar las AGP 4x y
las AGP 2x, las primeras llevan 2 hendiduras en los contactos de la zona
de conexión y las segundas llevan sólo una.
AGP 1x
La primera versión de AGP, la 1.0, hoy llamada AGP 1x/2x, usa un
diseño de bus (aunque AGP es un puerto, también puede ser visto como
un bus que sólo permite la conexión de dos dispositivos: el chipset y el
chip gráfico) derivado del PCI v2.1, con un ancho de 32 bits y operando
a una frecuencia de 66 MHz. Las líneas de señalización operan con un
voltaje de 3.3 Volts. Esto resulta en una tasa de transferencia máxima
de 266 MegaBytes por segundo. En comparación, el bus PCI estándar de
32
bits
y
33
MHz
sólo
transfiere
hasta
127
MB/seg.
Aparte de su mayor velocidad de transferencia, AGP proporciona un
diseño de administración de memoria que le permite leer datos (por
ejemplo, texturas) ubicados en la memoria RAM del PC en rápidas
ráfagas, una técnica denominada DIME ("Direct Memory Execute").
Mucho se dijo, cuando AGP estaba entrando al mercado, de que esta
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
82
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 83 de
167
gracia permitiría abaratar los costos de las tarjetas 3D, al permitir que
estas
usaran
la
memoria
RAM
del
PC.
En la práctica, el usar memoria principal impone una fuerte reducción de
rendimiento, por lo que la gran mayoría de las tarjetas gráficas optaron
mejor por disponer de su propia memoria, hasta que hoy en día una
tarjeta con 128 o 256 MB de memoria gráfica no es una rareza.
AGP 2x
Es similar al AGP
1x, pero transfiere
dos datos por ciclo
de reloj usando
una técnica similar
a
la
de
las
memorias
DDR,
por lo que su tasa
de
transferencia
máxima llega a los
528
MB/seg.
El AGP 2x sigue siendo parte del estándar AGP 1.0 ya que el uso de dos
datos por ciclo estaba ya contemplado cuando apareció AGP 1x.
AGP 4x
Aqui ya tenemos la primera gran revisión del estándar, que logra la
transmisión de 4 datos por ciclo de reloj, dando lugar al AGP 2.0. Su
ancho de banda máximo alcanza así poco mas de 1 GB/seg. Además,
AGP 2.0 cambia el voltaje de señalización a 1.5 Volts. Cabe hacer notar
que una tarjeta AGP 4x es capaz de operar en placas madres con puerto
AGP 1x o 2x, sin embargo, muchas tarjetas AGP antiguas, del estándar
AGP 1.0, no son capaces de operar en puertos AGP 4x por lo que es
necesario tener cuidado al intentar usar una tarjeta gráfica antigua en
una placa madre moderna.
AGP 8x
Un nuevo cambio en el estándar, con la aparición del AGP 3.0, el que
transmite 8 datos por ciclo de reloj, alcanzando así una transferencia
máxima de 2.1 GB/seg. Aunque el voltaje de señalización sigue siendo
de 1.5 Volts, la mayoría de las tarjetas AGP 8x no pueden operar en
puertas AGP 1.0 (las 1x y 2x), siendo un punto a tener en cuenta a la
hora de los upgrades.
El uso del puerto AGP debiera comenzar a desaparecer durante el año
2005, pues Intel ha señalado que sus futuros chipsets (programados
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
83
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 84 de
167
para ser introducidos durante el 2004) reemplazarán el puerto AGP con
el bus PCI-Express. En igual forma, Nvidia ha anunciado que su
próximo chip gráfico (el NV40) será el último con soporte nativo para
AGP. Otro tanto ha manifestado ATI para su chip R420.
PCI - EXPRESS
Aunque el PCI Express 16X permite la transferencia simultánea de hasta
4 gigabytes por segundo comparado con el ancho de banda compartido
de 2,1 GBps de AGP 8X, ni siquiera los juegos más exigentes han podido
crear un cuello de botella en el conducto AGP. Pruebas hechas sobre
tarjetas diseñadas con conjuntos de chips de NVidia y ATI (Nvidia:
tarjeta de referencia para PCI Express con chip GeForce 6800 GT y
256MB de memoria; ATI: versión de preproducción de una tarjeta
equipada con el chip Radeon X600 XT y 128MB de memoria). Para esta
fecha (abril de 2005) las tarjetas basadas en el chip NVidia 6800 GT
están ya a la venta por US$399. El chip ATI Radeon X600 XT también
está
disponible
por
alrededor
de
US$199.
Para la comparación se usaron dos tarjetas AGP: La primera, una
Leadtek WinFast A400 GT (US$400) con el chip NVidia GeForce 6800 GT
(el mismo que utiliza la tarjeta de NVidia para PCI Express) y 128MB de
memoria. La segunda, una Vision Tek Xtasy 9600 XT (US$200), basada
en el chip ATI Radeon 9600 XT (un chip distinto pero comparable al que
usa la tarjeta ATI X600 para PCI Express) y con 256MB de memoria. La
comparación de la tarjetas de gráficos AGP con sus hermanas PCI
Express es complicada porque no hay manera de probar ambas tarjetas
en la misma PC (aunque por lo menos un fabricante de chips está
contemplando producir un producto dual que combina AGP con PCI
Express).
Resultados de las pruebas
En la mayoría de las pruebas, las tarjetas basadas en PCI Express
terminaron en un empate virtual con las tarjetas AGP. Por ejemplo, en
la prueba de Halo, realizada a una resolución de 1.024 por 768, la
tarjeta de ATI dibujó 34 cuadros por segundo mientras que la ATI PCI
Express produjo 35 cps. De manera similar, las dos tarjetas de NVidia
quedaron separadas por un solo cuadro por segundo (59 contra 58). La
misma prueba, ejecutada esta vez a la resolución de 1.600 por 1.200,
produjo resultados idénticos con ambas tarjetas. Los únicos resultados
significativamente distintos se vieron en las tarjetas de ATI usando el
juego Splinter Cell: con la resolución de 1.024 por 768, la tarjeta AGP se
anotó 36 cps mientras que la de PCI Express logró 41 cps; los
resultados a la resolución de 1.600 por 1.200 fueron de 23 cps y 27 cps
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
84
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 85 de
167
para los diseños AGP y PCI Express, respectivamente. En todas las
pruebas, el producto de NVidia produjo resultados más altos, con
marcas de 74 y 75 cps a la resolución de 1.024 por 768 para las
versiones AGP y PCI Express, respectivamente; cuando repetimos la
prueba a 1.600 por 1.200, la productividad bajó 9 cps en ambos
modelos. En la prueba de Unreal Tournament 2004 a la resolución más
baja, las tarjetas AGP tuvieron una ventaja insignificante sobre sus
homólogas PCI. A la más alta, los resultados de las tarjetas de NVidia
fueron idénticos; pero la tarjeta de ATI para PCI Express se demoró
extraordinariamente (34 cps contra 46 para el modelo AGP). Este
resultado pudiera deberse a diferencias en la capacidad de memoria y a
peculiaridades del conjunto de chips o del controlador.
Entonces ¿hay que olvidarse de PCI Express?
Los resultados obtenidos en estas pruebas no significan que se deba
pensar en pasar por alto los sistemas y tarjetas de gráficos que utilizan
PCI Express, pero claramente no hay necesidad de precipitarse a
comprar una PC basada en este bus sólo por los gráficos. Más adelante,
muchos sistemas vendrán de fábrica con PCI Express, lo que significa
que no tendrá que pagar más para
conseguirlo. Y una vez que el software
comience a usar el ancho de banda adicional
disponible en PCI Express, se alegrará de
tenerlo. Entretanto, la selección de productos
de NVidia y ATI –ya sean los basados en AGP o
los diseñados para PCI Express– se ha
convertido en una cuestión de gusto. Si usted
ya tiene un sistema con PCI Express, se
quedará satisfecho con las nuevas ofertas de
cualquiera de estas dos compañías.
Tecnología SLI, el futuro
SLI, que significa Scalable Link Interface sólo puede usarse en tarjetas
PCI Express, ni AGP ni mucho menos PCI. Esto es así principalmente por
el ancho de banda que proporciona el PCI Express, teniendo en cuenta
que el paso a éste desde el AGP fue debido a que este último nos ofrecía
apenas para una tarjeta gráfica, difícilmente podrá ofrecer ancho para
dos. Por lo tanto, la placa base en la que montemos nuestro sistema SLI
deberá incluir dos ranuras PCI Express, que deberán ser además de 16X
o de 8X. Esta tecnología permite en algunos casos llegar a duplicar
efectivamente el rendimiento de una tarjeta gráfica al dividir las tareas
propias de la GPU en dos GPU’s, cada una con su propia memoria. Las
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
85
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 86 de
167
GPU se comunican a través de una conexión directa entre ellas (de ahí
la palabra Link), haciendo mucho más eficiente el manejo de gráficos.
Esta conexión se hace por medio de un cable que une las dos tarjetas
gráficas que deben estar presentes en el sistema.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
86
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 87 de
167
MÓDULO # 10: Otros dispositivos periféricos
Dispositivos Periféricos.
I. Jaz (Iomega) - 1 GB ó 2 GB
Pros: capacidad muy elevada, velocidad, portabilidad
Contras: inversión inicial, no tan resistente como un magneto-óptico,
cartuchos relativamente caros
Las cifras de velocidad del Jaz son absolutamente alucinantes, casi
indistinguibles de las de un disco duro moderno: poco más de 5 MB/s y
menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho
Jaz es internamente, a casi todos los efectos, un disco duro al que sólo
le falta el elemento lector-grabador, que se encuentra en la unidad.
Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo
precio y velocidad, junto con sus inconvenientes: información sensible a
campos magnéticos, durabilidad limitada en el tiempo, relativa
fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de
los discos Zip, podemos calificar este soporte de duro y fiable, aunque la
información nunca estará tan a salvo como si estuviera guardada en un
soporte óptico o magneto-óptico.
Aplicaciones
Almacenamiento masivo de datos que deben guardarse y recuperarse
con la mayor velocidad posible, lo cual lo hace ideal para la edición de
vídeo digital (casi una hora en formato MPEG); en general, sirve para lo
mismo que los discos duros, pero con la ventaja de su portabilidad y
fácil almacenaje.
En cuanto a defectos y críticas, aparte de que los datos no duren "para
siempre", sólo tiene un inconveniente: el precio. La unidad lectoragrabadora de 1 GB vale una respetable cantidad de dinero.
II. Zip (Iomega) - 100 MB
Pros: portabilidad, reducido formato, precio
global, muy extendido
Contras: capacidad reducida, incompatible con
disquetes de 3,5"
Las unidades Zip se caracterizan externamente
por ser de un color azul oscuro, al igual que los
disquetes habituales (los hay de todos los
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
87
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 88 de
167
colores). Estos discos son dispositivos magnéticos un poco mayores que
los clásicos disquetes de 3,5 pulgadas, aunque mucho más robustos y
fiables, con una capacidad sin compresión de 100 MB una vez
formateados.
Su capacidad los hace inapropiados para hacer copias de seguridad del
disco duro completo, aunque perfectos para archivar todos los archivos
referentes a un mismo tema o proyecto en un único disco. Su velocidad
de transferencia de datos no resulta comparable a la de un disco duro
actual, aunque son decenas de veces más rápidos que una disquetera
tradicional (alrededor de 1 MB/s).
Existen en diversos formatos, tanto internos como externos. Los
internos pueden tener interfaz IDE, como la de un disco duro o CD-ROM,
o bien SCSI; ambas son bastante rápidas, la SCSI un poco más, aunque
su precio es también superior.
Las versiones externas aparecen con interfaz SCSI (con un rendimiento
idéntico a la versión interna) o bien conectable al puerto paralelo, sin
tener que prescindir de la impresora conectada a éste. El modelo para
puerto paralelo pone el acento en la portabilidad absoluta entre
ordenadores (Sólo se necesita que tengan el puerto Lpt1) aunque su
velocidad es la más reducida de las tres versiones. Muy resistente,
puede ser el acompañante ideal de un portátil.
Ha tenido gran aceptación, siendo el estándar en su segmento, pese a
no poder prescindir de la disquetera de 3,5" con la que no son en
absoluto compatibles, aunque sus ventajas puede que suplan este
inconveniente. El precio de la versión interna ronda los $262.500 (más
IVA) y los Discos alrededor de $35.000 (más IVA).
Muchas de las primeras unidades Zip sufrían el denominado "mal del
click", que consistía en un defecto en la unidad lectora-grabadora que,
tras hacer unos ruiditos o "clicks", destrozaba el disco introducido;
afortunadamente, este defecto está corregido en las unidades actuales.
En todo caso, los discos son bastante resistentes,
pero evidentemente no llegan a durar lo que un
CD-ROM.
La tecnología óptica
la tecnología óptica de almacenamiento por láser
hace su primera aplicación comercial masiva con
el superexitoso CD de música, que data de
comienzos de la década de 1.980. Los
fundamentos técnicos que se utilizan son
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
88
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 89 de
167
relativamente sencillos de entender: un haz láser va leyendo (o
escribiendo) microscópicos agujeros en la superficie de un disco de
material plástico, recubiertos a su vez por una capa transparente para
su protección del polvo.
Realmente, el método es muy similar al usado en los antiguos discos de
vinilo, excepto porque la información está guardada en formato digital
(unos y ceros como valles y cumbres en la superficie del CD) en vez de
analógico y por usar un láser como lector. El sistema no ha
experimentado variaciones importantes hasta la aparición del DVD, que
tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño
de los agujeros y apretado los surcos para que quepa más información
en el mismo espacio.
Disco de vídeo digital
Disco de vídeo digital, también conocido en la actualidad como disco
versátil digital (DVD), un dispositivo de almacenamiento masivo de
datos cuyo aspecto es idéntico al de un disco compacto, aunque
contiene hasta 25 veces más información y puede transmitirla al
ordenador o computadora unas 20 veces más rápido que un CD-ROM.
Su mayor capacidad de almacenamiento se debe, entre otras cosas, a
que puede utilizar ambas caras del disco y, en algunos casos, hasta dos
capas por cada cara, mientras que el CD sólo utiliza una cara y una
capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs,
ya que ambos son discos ópticos; no obstante, los lectores de CD no
permiten leer DVDs.
En un principio se utilizaban para
reproducir
películas,
de
ahí
su
denominación original de disco de vídeo
digital. Hoy, los DVD-Vídeo son sólo un
tipo de DVD que almacenan hasta 133
minutos de película por cada cara, con
una calidad de vídeo LaserDisc y que
soportan sonido digital Dolby surround;
son la base de las instalaciones de cine
en casa que existen desde 1996. Además de éstos, hay formatos
específicos para la computadora que almacenan datos y material
interactivo en forma de texto, audio o vídeo, como los DVD-R, unidades
en las que se puede grabar la información una vez y leerla muchas,
DVD-RW, en los que la información se puede grabar y borrar muchas
veces, y los DVD-RAM, también de lectura y escritura.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
89
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 90 de
167
En 1999 aparecieron los DVD-Audio, que emplean un formato de
almacenamiento de sonido digital de segunda generación con el que se
pueden recoger zonas del espectro sonoro que eran inaccesibles al CDAudio.
Todos los discos DVD tienen la misma forma física y el mismo tamaño,
pero difieren en el formato de almacenamiento de los datos y, en
consecuencia, en su capacidad. Así, los DVD-Vídeo de una cara y una
capa almacenan 4,7 GB, y los DVD-ROM de dos caras y dos capas
almacenan hasta 17 GB. Del mismo modo, no todos
los DVDs se pueden reproducir en cualquier unidad
lectora; por ejemplo, un DVD-ROM no se puede
leer en un DVD-Vídeo, aunque sí a la inversa.
Por su parte, los lectores de disco compacto, CD, y
las unidades de DVD, disponen de un láser, ya que la lectura de la
información se hace por procedimientos ópticos. En algunos casos, estas
unidades son de sólo lectura y en otros, de lectura y escritura.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
90
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
Página 91 de
167
S03modulos_0701.doc
Tipos de discos compactos
NÚMERO
DURACIÓN DURACIÓN
CAPACIDAD
DE
DE CDs A
SOPORTE
MÁXIMA
MÁXIMA
ALMACENAMIENTO
LOS QUE
DE AUDIO DE VÍDEO
EQUIVALE
Disco
compacto 650 Mb
(CD)
1
h
min.
14
Disco
compacto 700 Mb
(CD)
1
h
min.
20
DVD una
cara
/ 4,7 Gb
una capa
9
h
min.
30 2
h
min.
DVD una
cara
/
8,5 Gb
doble
capa
17 h
min.
30
DVD
doble
9,4 Gb
cara
/
una capa
19 h
4
h
min.
DVD
doble
cara
doble
capa
35 h
8h
/ 17 Gb
14 min.
1
17 min.
1
15
4h
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
7
13
30
14
26
91
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 92 de
167
MÓDULO # 11: Particiones y manejo de información
Sistemas de Archivos
La mayoría de los sistemas operativos poseen su propio sistema de
archivos. Los sistemas de archivos son representados ya sea textual o
gráficamente utilizando gestores de archivos o "shells". En modo gráfico
a menudo son utilizadas las metáforas de carpetas (directorios)
conteniendo documentos, archivos y otras carpetas. Un sistema de
archivos es parte integral de un sistema operativo moderno.
Los sistemas de archivos más comunes utilizan dispositivos de
almacenamiento de datos que permiten el acceso a los datos como una
cadena de bloques de un mismo tamaño, a veces llamados sectores,
usualmente de 512 bytes de longitud. El software del sistema de
archivos es responsable de la organización de estos sectores en archivos
y directorios y mantiene un registro de qué sectores pertenecen a qué
archivos y cuáles no han sido utilizados. En la realidad, un sistema de
archivos no requiere necesariamente de un dispositivo de
almacenamiento de datos, sino que puede ser utilizado también para
acceder a datos generados dinámicamente, como los recibidos a través
de una conexión de red.
Generalmente un sistema de archivos tiene directorios que asocian
nombres de archivos con archivos, usualmente conectando el nombre de
archivo a un índice en una tabla de asignación archivos de algún tipo,
como FAT en sistemas de archivos MS-DOS o los inodos de los sistemas
Unix. La estructura de directorios puede ser plana o jerárquica
(ramificada o "en árbol"). En algunos sistemas de archivos los nombres
de archivos son estructurados, con sintaxis especiales para extensiones
de archivos y números de versión. En otros, los nombres de archivos
son simplemente cadenas de texto y los metadatos de cada archivo son
alojados
separadamente.
En sistemas de archivos jerárquicos, en lo usual, se declara la ubicación
precisa de un archivo con una cadena de texto llamada "ruta". La
nomenclatura para rutas varía ligeramente de sistema en sistema, pero
mantienen por lo general una misma estructura. Una ruta viene dada
por una sucesión de nombres de directorios y subdirectorios, ordenados
jerárquicamente de izquierda a derecha y separados por algún carácter
especial que suele ser una barra ('/') o barra invertida ('\') y puede
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
92
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 93 de
167
terminar en el nombre de un archivo presente en la última rama de
directorios especificada.
Así, por ejemplo, en un sistema Unix la ruta a la canción preferida del
usuario "pedvi" sería algo como:
/home/pedvi/música/canción.wav
Un ejemplo análogo en un sistema de archivos Windows se vería como:
C:\Mis documentos\Mi música\canción.wav
Los sistemas de archivos pueden ser clasificados en tres ramas:
Sistemas de archivos de disco.
Sistemas de archivos de red.
Sistemas de archivos de propósito especial.
Sistemas de archivos de disco
Un sistema de archivo de disco está diseñado para el almacenamiento
de archivos en una unidad de disco, que puede estar conectada directa o
indirectamente
a
la
computadora.
Tipos:
Ext2 y 3.
FAT16 y 32.
NTFS.
ReiserFS
ISO 9660.
EXT2 (Second extended Filesystem o "Segundo sistema de archivos
extendido"):
Fue el sistema de archivos estándar en el sistema operativo Linux por
varios años y continúa siendo ampliamente utilizado.
Fue diseñado originalmente por Rémy Card.
La principal desventaja de EXT2 es que no posee una bitácora, por lo
que muchos de sus usuarios están emigrando a ReiserFS y su sucesor
EXT3.
EXT3 (Third extended Filesystem o "Tercer sistema de archivos
extendido"):
Es un sistema de archivos con registro por diario (en inglés
"journaling"), el cual se encuentra creciendo en popularidad entre
usuarios
del
sistema
operativo
Linux.
A pesar de su menor desempeño y escalabilidad frente a alternativas
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
93
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 94 de
167
como ReiserFS o XFS, posee la ventaja de permitir migrar del sistema
de archivos EXT2 sin necesidad de reformatear el disco.
La única diferencia entre EXT2 y EXT3 es el registro por diario.
Un sistema de archivos EXT3 puede ser montado y usado como un
sistema
de
archivos
EXT2.
FAT (File Allocation Table o "Tabla de ubicación de archivos"):
Es el principal sistema de archivos desarrollado para MS-DOS y
Windows.
El sistema de archivos FAT es relativamente sencillo, y debido a eso es
muy popular como formato para disquetes. Además, el formato FAT es
soportado por casi todos los sistemas operativos para PCs IBM, y debido
a esto a menudo se lo utiliza para compartir información entre diversos
sistemas
operativos
en
un
mismo
equipo.
FAT es un sistema de archivos relativamente anticuado, y debido a esto
sufre
de
varios
problemas:
Para comenzar, su distribución de archivos simple permite la
fragmentación, lo que produce eventuales pérdidas en el desempeño de
operaciones
sobre
archivos.
Luego, FAT no fue diseñado para redundancia en caso de fallas del
sistema.
Las primeras versiones de FAT permitían nombres de archivo de hasta
12 caracteres, aunque esto fue solucionado por Microsoft al inventar
VFAT, el cual permite nombres de hasta 255 caracteres.
Finalmente, los sistemas de archivos FAT no permiten directivas de
seguridad, garantizando el acceso a todos los archivos de una partición
por
cualquier
usuario
del
sistema
operativo.
NTFS (New Tecnology File System o "Sistema de archivos de nueva
tecnología"):
Sistema de archivos diseñado específicamente para Windows NT, con el
objetivo de crear un sistema de archivos eficiente, robusto y con
seguridad
incorporada
desde
su
base.
También soporta compresión nativa de ficheros y encriptación (esto
último sólo a partir de Windows 2000).
NTFS permite definir el tamaño del cluster, a partir de 512 bytes
(tamaño mínimo de un sector) de forma independiente al tamaño de la
partición.
Es un sistema adecuado para las particiones de gran tamaño requeridas
en estaciones de trabajo de alto rendimiento y servidores.Puede
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
94
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 95 de
167
manejar discos de hasta 2 terabytes. Los inconvenientes que plantea
son:
Necesita para si mismo una buena cantidad de espacio en disco duro por
lo que no es recomendable su uso en discos menores de 400 MB.
No es compatible con MS-DOS, Windows 95 ni Windows 98.
La conversión a NTFS es unidireccional, si elige actualizar la unidad, no
podrá volver a convertirla a FAT.
ReiserFS:
Es un sistema de archivos de propósitos generales, diseñado e
implementado por un equipo liderado por Hans Reiser. Actualmente
funciona bajo Linux, con la versión 2.4.1 del núcleo Linux, se convirtió
en el primer sistema de archivos con registro por diario (en inglés,
"journaling")
en
ser
incluido
en
el
núcleo
estándar.
La ventaja más evidente sobre el sistema de archivos estándar de Linux,
EXT2, es su registro por diario. Esto reduce ampliamente el riesgo de
corrupción del sistema de archivos (y la necesidad de extensas
revisiones del sistema) después de un apagado no programado del
sistema, ya sea por un corte eléctrico o un error del sistema.
Desafortunadamente, convertir un sistema a ReiserFS requiere para
usuarios de EXT2 el reformateo completo de sus discos, una desventaja
no presente en su principal competidor, EXT3. ReiserFS maneja
directorios conteniendo enormes cantidades de archivos pequeños muy
eficientemente.
ISO 9660:
En el año 1985, diferentes distribuidores de software y fabricantes de
hardware trabajaron conjuntamente obteniendo como fruto el llamado
formato HSG, vigente aún hoy en día en los CD para ordenadores PC y
también
para
muchos
sistemas
UNIX.
Todos los CD-ROM actuales están provistos de este formato.
El nombre de este formato viene de "High Sierra Group", que es el
nombre que recibieron los diferentes técnicos que participaron en el
desarrollo del HSG en honor al primer lugar donde se reunieron, el hotel
y casino "High Sierra" en el estado de Nevada, Estados Unidos. Un año
después,
las
autoridades
de
normalización
americanas
ISO
estandarizaron la propuesta, que se presentó bajo el título "Volume and
File Structure of Compact Read Only Optical Disk for Information
Interchange".
Desde entonces se habla de la norma ISO 9660 o simplemente de la
ISO 9660.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
95
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 96 de
167
Las Particiones
Un disco duro es un soporte capaz de almacenar datos. Pero para ello,
tiene que estar preparado. Todos los sistemas operativos, entienden en
común una cosa: LAS PARTICIONES. Es lo único que es común para
todos los sistemas operativos de PC. Posteriormente cada sistema
operativo, puede tener un sistema de archivos totalmente diferente, por
lo que una partición creada con un sistema operativo, puede no ser
visible para otro. Incluso puede que ni le asigne letra de disco.
¿Que es una PARTICION? Es simplemente un pedazo del disco. Lo
normal, es que solo exista una partición, con lo cual muchas veces no
nos cuestionamos que pueda existir más de una.
Pero TODOS los discos, por definición, pueden tener hasta 4 particiones.
Pueden ser de 1 a 4 primarias o hasta tres primaria y una secundaria (a
veces llamada también EXTENDIDA). Un aspecto importante a tener en
cuenta cuando se trata de particiones primarias es el hecho de que en
todo momento solo una de las particiones está "activa". Cuando una
partición primaria determinada está "activa", no se puede acceder a las
demás particiones primarias en el mismo disco físico. Por consiguiente,
el sistema operativo de una partición primaria no puede acceder a los
datos de otra partición primaria en el mismo disco físico. En la partición
secundaria (extendida), podemos crear luego, las llamadas unidades
lógicas. Es decir podemos subdividirla en otras partes mas pequeñas y
asignarles letra de disco). Supongamos un solo disco físico con 3
particiones primarias (la primera "activa"), y una partición extendida
con otras 2 unidades lógicas.
Nuestro disco, de cara al sistema operativo tendrá: la letra C: para la
unidad primaria activa. Las letras D: y E: para las dos unidades lógicas
dentro de la partición extendida. Y las otras dos particiones primarias
SON IMPOSIBLES de ver por ningún sistema operativo.
La ultima frase, parece una incongruencia. ¿para que queremos 2
particiones que no nos valen para nada, si no podemos acceder a ellas.
Pero....., imaginemos un programilla listo, que nos cambia solo el
indicador de "activa" en la partición. En ese momento, la partición
primera la dejamos de ver. Y ahora vemos que la segunda que es la
activa, pasa a ser la letra C:. (nos obliga a reiniciar la maquina).
Y para que sirve?. Pues para tener distintos sistemas operativos que no
se vean entre sí, y con pequeño programita o utilidad cambiando de
partición primaria activa, cambio completamente el entorno.
Todo lo del párrafo anterior, aunque es verdad, no se suele utilizar.
Sobre todo porque las herramientas que nos da el MS-DOS (y el
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
96
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 97 de
167
Windows) como es el FDISK, solo nos permiten una partición primaria
por disco y por supuesto, también la partición secundaria con sus
posibles unidades lógicas.
Pero lo mas importante, según lo anterior, y para fijar conceptos:
Un disco duro tiene un sector único y fijo en el disco llamado Master
Boot Record (MBR). Este sector, contiene un miniprograma y una tabla.
Cuando encendemos el ordenador, la BIOS, lo único que sabe hacer es
buscar el disco duro el MBR, que sabe donde está por tener posición fija
para todos los sistemas operativos, cargar un sector de 512 bytes en
memoria en una posición fija (x'7C00') y ceder el control a dicho
miniprograma.
La pequeña tabla que tiene el MBR, contiene datos de inicio, tamaño y
posición de las 4 posibles particiones del disco duro, con información de:
clase de partición, tipo de partición y si está activa o no. Mas adelante
veremos para que sirve cada dato.
Existe un parámetro, no documentado del FDISK, el parámetro /MBR
que si ejecutamos un FDISK /MBR, restaura este miniprograma (que
muchas veces, es evidente que es la "golosina" de los virus). Y es la
única manera de desinfectar un disco infectado con algún virus que
afecte al MBR. El format NO LIMPIA este virus, ya que el FORMAT no
entiende de MBR, solo entiende de SU partición y el MBR, está por
encima de las particiones.
Posteriormente con FDISK, u otra utilidad similar de otro sistema
operativo, procedemos a crear las particiones. FDISK solo nos dejará
crear una primaria y si queda espacio o no le asignamos todo el espacio,
una EXTENDIDA o secundaria.
En la extendida podremos crear una especie de sub-particiones, son las
unidades lógicas.
Cada partición, tiene su propio registro de "boot", es decir otro
miniprograma, que le que carga el miniprograma del MBR. Pero este
registro de BOOT de la partición, ya es mas "listo", es capaz de buscar y
cargar ya el inicio del sistema operativo real de la partición.
Los sistemas operativos, al arrancar, asignan unas letras a las
particiones. El orden de asignar estas letras es: primero y
consecutivamente a todas las unidades primarias de TODOS los discos
duros. Una vez que han finalizado las primarias, comienza por las
secundarias, y allí va secuencialmente en cada secundaria para todas las
unidades lógicas. Pongamos un ejemplo.
Dos discos duros:
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
97
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 98 de
167
El primero con una partición primaria (p1) y una secundaria con dos
unidades
lógicas
(s11
y
s12).
El segundo con una primaria (p2) y una secundaria con tres unidades
lógicas (s21, s22 y s23).
Entonces los discos nos quedarán:
C: = p1
D: = p2
E: = s11
F: = s12
G: = s21
h: = s22
I: = s23
Y otra cosa: un FORMAT solo crea la estructura lógica de archivos en
una partición. No limpia por tanto el MBR en donde podría residir un
virus. Sí limpia el "boot" de la partición.
Una vez entendido lo que es una partición, vamos a describir, un poco
las características físicas de un disco. Es importante entender su
funcionamiento porque nos ayudará a optimizar nuestro sistema con las
particiones adecuadas en función del sistema de archivos utilizado FAT
16 o 32 (por ahora...). Y además nos ayudará a entender la velocidad
de acceso y los recursos de memoria utilizados.
Un disco es un plato con un recubrimiento magnético que gira a gran
velocidad. En principio, aunque esto es mentira, supongamos que una
determinada posición del disco está "imantada" y a esto le asignamos
un 1 binario, o no, y entonces es un cero binario. El conjunto 8 de estos
es un byte. Si los agrupamos en bloques de 512, es lo que se llama un
sector, y es la mínima unidad de información en disco.
Pero a nivel lógico, es verdad, la unidad mínima de información, es un
sector, y es lo mínimo que podemos obtener en un acceso en lectura /
escritura.
Es un plato que gira, y una cabeza que se mueve transversal al plato y
es capaz de posicionarse.
En principio, aquí para la velocidad de lectura, ya vemos que nos
influyen dos cosas, primero la velocidad de giro, segundo la velocidad
con que la cabeza es capaz de ir desde el extremo exterior del plato,
hasta el extremo inferior.
Estas dos cosas, son lo que los fabricantes llaman "average" y "seek".
Bueno, está un poco turbio, cada fabricante nos da los datos y las
definiciones que le viene en gana. Pero eso es otra historia.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
98
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 99 de
167
Con respecto al "average", pensemos, que si el sector que queremos
leer, justo acaba de pasar por donde está la cabeza lectora, deberemos
esperar una revolución completa del disco hasta que vuelva a pasar
debajo de la cabeza. Con esto estamos viendo una cosa importantísima,
depende de la velocidad de giro del disco, la rapidez con que podamos
extraer los datos. Se llama "average", porque estadísticamente, los
sectores que queramos leer, puede ser que acaben de pasar debajo de
la cabeza y entonces tendremos que esperar una revolución completa.
Puede ser que vayan justo a pasar y entonces tendremos los datos
inmediatamente, y la "media" de esto es que los sectores estén a la
mitad del giro. Entonces "puristamente", se define "average", como el
tiempo que tarda un disco en dar "media" revolución.
Bueno, después del rollo, lo importante: a más velocidad de giro, mas
rápido obtendremos los datos. Los discos actuales van de 4200 vueltas a
10300 vueltas. Un IDE clásico, suele ser de 4200 e incluso los últimos
de 7200. Los SCSI suelen ir de 7200 a 10300.
Una vez que el sector esté en los chip de memoria del propio disco, y a
la hora de pasarlos realmente al procesador, es cuando surgen los
famosos métodos de PIO 0, a PIO 4 y DMA, y UDMA 1 y UDMA 2, este
último, que es el que nos están vendiendo, teóricamente es el más
rápido (33 Mbytes). Pero pensemos un poco, para que este dato se pase
al procesador, lo debe tener el chip de memoria del disco, y para que lo
tenga este chip, hemos de esperar media revolución de giro del disco.
Es decir en infinitamente más lenta la transferencia desde el soporte
físico que la que "teóricamente" nos pueda dar luego entre chip y
procesador.
Con lo anterior, quiero decir que un disco que girase a 10000 vueltas y
tenga un método de acceso lento (PIO 4), sigue siendo bastante mas
rapido que un disco de 4000 vueltas con UDMA 2. Con respecto a los
SCSI, nos sucede parecido. Mucha controladora UltraWide de 80 Mbytes
por segundo, que como tengamos un disco de 4000 vueltas, vamos
listos!.
O sea, que nos pueden engañar por donde quieran.
Una de las preguntas más importantes al comprar un disco, es ¿a
cuantas vueltas gira?. Esto es debido, a que el "average", y el "seek", a
pesar de la definición que yo he dado, cada fabricante se "inventa" la
suya propia, y no he encontrado un libro "serio" que sea capaz de
definirlo
con
claridad.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
99
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 100 de
167
1. Función de un disco duro
Un disco duro es un dispositivo que permite el almacenamiento y
recuperación de grandes cantidades de información. Los discos duros
forman el principal elemento de la memoria secundaria de un
ordenador, llamada así en oposición a la memoria principal o memoria
RAM (Random Access Memory, memoria de acceso aleatorio).
Tanto los discos duros como la memoria principal son memorias de
trabajo (varían su contenido en una sesión con el ordenador). Sin
embargo, presentan importantes diferencias: la memoria principal es
volátil (su contenido se borra al apagar el ordenador), muy rápida (ya
que se trata de componentes electrónicos) pero de capacidad reducida.
La memoria secundaria, en cambio, es no volátil, menos rápida
(componentes mecánicos) y de gran capacidad. La memoria principal
contiene los datos utilizados en cada momento por el ordenador pero
debe recurrir a la memoria secundaria cuando necesite recuperar
nuevos datos o almacenar de forma permanente los que hayan variado.
2. Estructura física de un disco duro
Elementos de un disco duro
Un disco duro forma una caja herméticamente cerrada que contiene dos
elementos no intercambiables: la unidad de lectura y escritura y el disco
como tal.
La unidad es un conjunto de componentes electrónicos y
mecánicos que hacen posible el almacenamiento y recuperación de
los datos en el disco.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
100
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 101 de
167
El disco es, en realidad, una pila de discos, llamados platos, que
almacenan información magnéticamente. Cada uno de los platos
tiene dos superficies magnéticas: la superior y la inferior. Estas
superficies magnéticas están formadas por millones de pequeños
elementos capaces de ser magnetizados positiva o negativamente.
De esta manera, se representan los dos posibles valores que
forman un bit de información (un cero o un uno). Ocho bits
contiguos constituyen un byte (un carácter).
Funcionamiento de una unidad de disco duro
Veamos cuáles son los mecanismos que permiten a la unidad acceder a
la totalidad de los datos almacenados en los platos.
En primer lugar, cada superficie magnética tiene asignado uno de los
cabezales de lectura/escritura de la unidad. Por tanto, habrá tantos
cabezales como caras tenga el disco duro y, como cada plato tiene dos
caras, este número equivale al doble de platos de la pila. El conjunto de
cabezales se puede desplazar linealmente desde el exterior hasta el
interior de la pila de platos mediante un brazo mecánico que los
transporta. Por último, para que los cabezales tengan acceso a la
totalidad de los datos, es necesario que la pila de discos gire. Este giro
se realiza a velocidad constante y no cesa mientras esté encendido el
ordenador. En cambio, en los discos flexibles sólo se produce el giro
mientras se está efectuando alguna operación de lectura o escritura. El
resto del tiempo, la disquetera permanece en reposo. Con las unidades
de CD-ROM ocurre algo similar, sin embargo en este caso la velocidad
de giro no es constante y depende de la distancia al centro del dato que
se esté leyendo.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
101
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 102 de
167
Cada vez que se realiza una operación de lectura en el disco duro, éste
tiene que realizar las siguientes tareas: desplazar los cabezales de
lectura/escritura hasta el lugar donde empiezan los datos; esperar a que
el primer dato, que gira con los platos, llegue al lugar donde están los
cabezales; y, finalmente, leer el dato con el cabezal correspondiente. La
operación de escritura es similar a la anterior.
Estructura física: cabezas, cilindros y sectores
Ya hemos visto que cada una de las dos superficies magnéticas de cada
plato se denomina cara. El número total de caras de un disco duro
coincide con su número de cabezas. Cada una de estas caras se divide
en anillos concéntricos llamados pistas. En los discos duros se suele
utilizar el término cilindro para referirse a la misma pista de todos los
discos de la pila. Finalmente, cada pista se divide en sectores.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
102
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 103 de
167
Los sectores son las unidades mínimas de información que puede leer o
escribir un disco duro. Generalmente, cada sector almacena 512 bytes
de información.
El número total de sectores de un disco duro se puede calcular: nº
sectores = nº caras * nº pistas/cara * nº sectores/pista. Por tanto, cada
sector queda unívocamente determinado si conocemos los siguientes
valores: cabeza, cilindro y sector. Por ejemplo, el disco duro ST33221A
de Seagate tiene las siguientes especificaciones: cilindros = 6.253,
cabezas = 16 y sectores = 63. El número total de sectores
direccionables es, por tanto, 6.253*16*63 = 6.303.024 sectores. Si
cada sector almacena 512 bytes de información, la capacidad máxima
de este disco duro será de 6.303.024 sectores * 512 bytes/sector =
3.227.148.228 bytes ~ 3 GB.
Las cabezas y cilindros comienzan a numerarse desde el cero y los
sectores desde el uno. En consecuencia, el primer sector de un disco
duro será el correspondiente a la cabeza 0, cilindro 0 y sector 1.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
103
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 104 de
167
3. Estructura lógica de un disco duro
La estructura lógica de un disco duro está formada por:
El sector de arranque (Master Boot Record)
Espacio particionado
Espacio sin particionar
El sector de arranque es el primer sector de todo disco duro (cabeza 0,
cilindro 0, sector 1). En él se almacena la tabla de particiones y un
pequeño programa master de inicialización, llamado también Master
Boot. Este programa es el encargado de leer la tabla de particiones y
ceder el control al sector de arranque de la partición activa. Si no
existiese partición activa, mostraría un mensaje de error.
El espacio particionado es el espacio del disco que ha sido asignado a
alguna partición. El espacio no particionado, es espacio no accesible del
disco ya que todavía no ha sido asignado a ninguna partición. A
continuación se muestra un ejemplo de un disco duro con espacio
particionado (2 particiones primarias y 2 lógicas) y espacio todavía sin
particionar.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
104
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 105 de
167
El caso más sencillo consiste en un sector de arranque que contenga
una tabla de particiones con una sola partición, y que esta partición
ocupe la totalidad del espacio restante del disco. En este caso, no
existiría espacio sin particionar.
4. Las particiones
Cada disco duro constituye una unidad física distinta. Sin embargo, los
sistemas operativos no trabajan con unidades físicas directamente sino
con unidades lógicas. Dentro de una misma unidad física de disco duro
puede haber varias unidades lógicas. Cada una de estas unidades
lógicas constituye una partición del disco duro. Esto quiere decir que
podemos dividir un disco duro en, por ejemplo, dos particiones (dos
unidades lógicas dentro de una misma unidad física) y trabajar de la
misma manera que si tuviésemos dos discos duros (una unidad lógica
para cada unidad física).
Particiones y directorios.— Ambas estructuras permiten
organizar datos dentro de un disco duro. Sin embargo,
presentan importantes diferencias: 1ª) Las particiones son
divisiones de tamaño fijo del disco duro; los directorios son
divisiones de tamaño variable de la partición; 2ª) Las
particiones ocupan un grupo de cilindros contiguos del disco
duro (mayor seguridad); los directorios suelen tener su
información desperdigada por toda la partición; 3ª) Cada
partición del disco duro puede tener un sistema de archivos
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
105
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 106 de
167
(sistema operativo) distinto; todos los directorios de la
partición tienen el sistema de archivos de la partición.
Como mínimo, es necesario crear una partición para cada disco duro.
Esta partición puede contener la totalidad del espacio del disco duro o
sólo una parte. Las razones que nos pueden llevar a crear más de una
partición por disco se suelen reducir a tres.
1. Razones organizativas. Considérese el caso de un ordenador que
es compartido por dos usuarios y, con objeto de lograr una mejor
organización y seguridad de sus datos deciden utilizar particiones
separadas.
2. Instalación de más de un sistema operativo. Debido a que cada
sistema operativo requiere (como norma general) una partición
propia para trabajar, si queremos instalar dos sistemas operativos
a la vez en el mismo disco duro (por ejemplo, Windows 98 y
Linux), será necesario particionar el disco.
3. Razones de eficiencia. Por ejemplo, suele ser preferible tener
varias particiones FAT pequeñas antes que una gran partición FAT.
Esto es debido a que cuanto mayor es el tamaño de una partición,
mayor es el tamaño del grupo (cluster) y, por consiguiente, se
desaprovecha más espacio de la partición. Más adelante,
explicaremos esto con mayor detalle.
Las particiones pueden ser de dos tipos: primarias o lógicas. Las
particiones lógicas se definen dentro de una partición primaria especial
denominada partición extendida.
En un disco duro sólo pueden existir 4 particiones primarias (incluida
la partición extendida, si existe). Las particiones existentes deben
inscribirse en una tabla de particiones de 4 entradas situada en el
primer sector de todo disco duro. De estas 4 entradas de la tabla puede
que no esté utilizada ninguna (disco duro sin particionar, tal y como
viene de fábrica) o que estén utilizadas una, dos, tres o las cuatro
entradas. En cualquiera de estos últimos casos (incluso cuando sólo hay
una partición), es necesario que en la tabla de particiones figure una de
ellas como partición activa. La partición activa es aquella a la que el
programa de inicialización (Master Boot) cede el control al arrancar. El
sistema operativo de la partición activa será el que se cargue al arrancar
desde el disco duro. Más adelante veremos distintas formas de elegir el
sistema operativo que queremos arrancar, en caso de tener varios
instalados, sin variar la partición activa en cada momento.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
106
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 107 de
167
De todo lo anterior se pueden deducir varias conclusiones: Para que un
disco duro sea utilizable debe tener al menos una partición primaria.
Además para que un disco duro sea arrancable debe tener activada una
de las particiones y un sistema operativo instalado en ella. Más
adelante, se explicará en detalle la secuencia de arranque de un
ordenador. Esto quiere decir que el proceso de instalación de un sistema
operativo en un ordenador consta de la creación de su partición
correspondiente, instalación del sistema operativo (formateo de la
partición y copia de archivos) y activación de la misma. De todas
maneras, es usual que este proceso esté guiado por la propia
instalación. Un disco duro no arrancará si no se ha definido una partición
activa o si, habiéndose definido, la partición no es arrancable (no
contiene un sistema operativo).
Hemos visto antes que no es posible crear más de cuatro particiones
primarias. Este límite, ciertamente pequeño, se logra subsanar mediante
la creación de una partición extendida (como máximo una). Esta
partición ocupa, al igual que el resto de las particiones primarias, una de
las cuatro entradas posibles de la tabla de particiones. Dentro de una
partición extendida se pueden definir particiones lógicas sin límite. El
espacio de la partición extendida puede estar ocupado en su totalidad
por particiones lógicas o bien, tener espacio libre sin particionar.
Veamos el mecanismo que se utiliza para crear la lista de particiones
lógicas. En la tabla de particiones del Master Boot Record debe existir
una entrada con una partición extendida (la cual no tiene sentido
activar). Esta entrada apunta a una nueva tabla de particiones similar a
la ya estudiada, de la que sólo se utilizan sus dos primeras entradas. La
primera entrada corresponde a la primera partición lógica; la segunda,
apuntará a una nueva tabla de particiones. Esta nueva tabla contendrá
en su primera entrada la segunda partición lógica y en su segunda, una
nueva referencia a otra tabla. De esta manera, se va creando una
cadena de tablas de particiones hasta llegar a la última, identificada por
tener su segunda entrada en blanco.
Particiones primarias y particiones lógicas
Ambos tipos de particiones generan las correspondientes unidades
lógicas del ordenador. Sin embargo, hay una diferencia importante: sólo
las particiones primarias se pueden activar. Además, algunos sistemas
operativos no pueden acceder a particiones primarias distintas a la suya.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
107
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 108 de
167
Lo anterior nos da una idea de qué tipo de partición utilizar para cada
necesidad. Los sistemas operativos deben instalarse en particiones
primarias, ya que de otra manera no podrían arrancar. El resto de
particiones que no contengan un sistema operativo, es más conveniente
crearlas como particiones lógicas. Por dos razones: primera, no se
malgastan entradas de la tabla de particiones del disco duro y, segunda,
se evitan problemas para acceder a estos datos desde los sistemas
operativos instalados. Las particiones lógicas son los lugares ideales
para contener las unidades que deben ser visibles desde todos los
sistemas operativos.
Algunos sistemas operativos presumen de poder ser instalados en
particiones lógicas (Windows NT), sin embargo, esto no es del todo
cierto: necesitan instalar un pequeño programa en una partición
primaria que sea capaz de cederles el control.
Estructura lógica de las particiones
Dependiendo del sistema de archivos utilizado en cada partición, su
estructura lógica será distinta. En los casos de MS-DOS y Windows 95,
está formada por sector de arranque, FAT, copia de la FAT, directorio
raíz y área de datos. De todas formas, el sector de arranque es un
elemento común a todos los tipos de particiones.
Todas las particiones tienen un sector de arranque (el primero de la
partición) con información relativa a la partición. Si la partición tiene
instalado un sistema operativo, este sector se encargará de arrancarlo.
Si no hubiese ningún sistema operativo (como es el caso de una
partición para datos) y se intentara arrancar, mostraría un mensaje de
error.
5. Secuencia de arranque de un ordenador
Todos los ordenadores disponen de un pequeño programa almacenado
en memoria ROM (Read Only Memory, memoria de sólo lectura),
encargado de tomar el control del ordenador en el momento de
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
108
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 109 de
167
encenderlo. Lo primero que hace el programa de arranque es un breve
chequeo de los componentes hardware. Si todo está en orden, intenta el
arranque desde la primera unidad física indicada en la secuencia de
arranque. Si el intento es fallido, repite la operación con la segunda
unidad de la lista y así hasta que encuentre una unidad arrancable. Si
no existiese ninguna, el programa de arranque mostraría una
advertencia. Esta secuencia de arranque se define en el programa de
configuración del ordenador (también llamado Setup, CMOS o BIOS). Lo
usual es acceder a este programa pulsando la tecla Suprimir mientras se
chequea la memoria RAM, sin embargo su forma de empleo depende del
modelo del ordenador. Por ejemplo, la secuencia A:, C: indica que
primero se intentará arrancar desde la disquetera y si no fuera posible,
desde el primer disco duro.
Nota: Normalmente los programas de configuración utilizan
la siguiente nomenclatura: la unidad A: es la primera unidad
de disquete; B:, la segunda; C:, el primer disco duro; y D:,
el segundo.
Suponiendo que arrancamos desde el disco duro, el programa de
arranque de la ROM cederá el control a su programa de inicialización
(Master Boot). Este programa buscará en la tabla de particiones la
partición activa y le cederá el control a su sector de arranque.
El programa contenido en el sector de arranque de la partición activa
procederá al arranque del sistema operativo.
Algunas aclaraciones: Cuando compramos un disco duro nuevo, éste
viene sin particionar. Esto significa que el disco duro no es arrancable y
hay que configurarlo desde un disquete (o un CD-ROM). Para ello es
necesario establecer la secuencia de arranque de manera que esté la
disquetera antes que el disco duro (de lo contrario puede no lograrse el
arranque). Por el contrario, si la secuencia de arranque es C:, A: y el
disco duro es ya arrancable, no será posible arrancar desde un disquete,
ya que ni siquiera lo leerá.
6. Sistemas de archivos
Un sistema de archivos es una estructura que permite tanto el
almacenamiento de información en una partición como su modificación y
recuperación. Para que sea posible trabajar en una partición es
necesario asignarle previamente un sistema de archivos. Esta operación
se denomina dar formato a una partición.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
109
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 110 de
167
Generalmente cada sistema de archivos ha sido diseñado para obtener
el mejor rendimiento con un sistema operativo concreto (FAT para DOS,
FAT32 para Windows 98, NTFS para Windows NT, HPFS para OS/2…).
Sin embargo, es usual que el mismo sistema operativo sea capaz de
reconocer múltiples sistemas de archivos. A continuación se comentan
los sistemas de archivos más comunes.
FAT (File Allocate Table, tabla de asignación de archivos)
Este sistema de archivos se basa, como su nombre indica, en una tabla
de asignación de archivos o FAT. Esta tabla es el índice del disco.
Almacena los grupos utilizados por cada archivo, los grupos libres y los
defectuosos. Como consecuencia de la fragmentación de archivos, es
corriente que los distintos grupos que contienen un archivo se hallen
desperdigados por toda la partición. La FAT es la encargada de seguir el
rastro de cada uno de los archivos por la partición.
Grupo .— Un grupo, cluster o unidad de asignación es la
unidad mínima de almacenamiento de un archivo en una
partición y está formada por uno o varios sectores contiguos
del disco. Esto quiere decir que el espacio real ocupado por
un archivo en disco será siempre múltiplo del tamaño del
grupo. Además, cada grupo puede almacenar información de
un solo archivo. Si no cabe en un solo grupo, se utilizarán
varios (no necesariamente contiguos). Para hacernos una
idea del nefasto resultado de un tamaño de grupo
incorrecto, consideremos dos archivos de 1 byte cada uno.
Si el tamaño del grupo es de 32 KB, se utilizarán dos grupos
y el espacio real ocupado en disco habrá sido de 64 KB =
¡65.536 bytes! en vez de 2 bytes, como sería de esperar.
Este sistema posee importantes limitaciones: nombres de archivos
cortos; tamaño máximo de particiones de 2 GB; grupos (clusters)
demasiados grades, con el consiguiente desaprovechamiento de espacio
en disco; elevada fragmentación, que ralentiza el acceso a los archivos.
Pero tiene a su favor su sencillez y compatibilidad con la mayoría de
sistemas operativos.
Debido a que la FAT de este sistema de archivos tiene entradas de 16
bits (por eso, a veces se llama FAT16), sólo se pueden utilizar 216 =
65.536 grupos distintos. Esto implica que, con el fin de aprovechar la
totalidad del espacio de una partición, los grupos tengan tamaños
distintos en función del tamaño de la partición. Por ejemplo, con un
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
110
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 111 de
167
grupo de 16 KB se puede almacenar hasta 216 grupos * 16 KB/grupo =
220 KB = 1 GB de información. El límite de la partición (2 GB) se obtiene
al considerar un grupo máximo de 32 KB (formado por 64 sectores
consecutivos de 512 bytes).
VFAT (Virtual FAT)
Este sistema de archivos logra remediar uno de los mayores problemas
del sistema FAT: los nombres de archivos y directorios sólo podían
contener 8 caracteres de nombre y 3 de extensión. Con VFAT, se logra
ampliar este límite a 255 caracteres entre nombre y extensión.
La mayor ventaja de VFAT es que tiene plena compatibilidad con FAT.
Por ejemplo, es factible utilizar la misma partición para dos sistemas
operativos que utilicen uno FAT y otro VFAT (MS-DOS y Windows 95).
Cuando entremos desde MS-DOS, los nombres largos de archivos se
transforman en nombres cortos según unas reglas establecidas, y
pueden ser utilizados de la manera habitual. De todas maneras, hay que
prestar cierta atención cuando se trabaja desde MS-DOS con archivos
que tienen nombres largos: no se deben realizar operaciones de copiado
o borrado, ya que se corre el riesgo de perder el nombre largo del
archivo y quedarnos sólo con el corto. Desde Windows 95, se trabaja de
forma transparente con nombres cortos y largos.
Tanto las particiones FAT como las VFAT están limitadas a un tamaño
máximo de 2 GB. Esta es la razón por la que los discos duros mayores
de este tamaño que vayan a trabajar con alguno de los dos sistemas,
necesiten ser particionados en varias particiones más pequeñas. El
sistema de arhivos FAT32 ha sido diseñado para aumentar este límite a
2 TB (1 terabyte = 1024 GB).
FAT32 (FAT de 32 bits)
El sistema FAT32 permite trabajar con particiones mayores de 2 GB. No
solamente esto, sino que además el tamaño del grupo (cluster) es
mucho menor y no se desperdicia tanto espacio como ocurría en las
particiones FAT. La conversión de FAT a FAT32, se puede realizar desde
el propio sistema operativo Windows 98, o bien desde utilidades como
Partition Magic. Sin embargo, la conversión inversa no es posible desde
Windows 98, aunque sí desde Partition Magic.
Hay que tener en cuenta que ni MS-DOS ni las primeras versiones de
Windows 95 pueden acceder a los datos almacenados en una partición
FAT32. Esto quiere decir que si tenemos en la misma partición
instalados MS-DOS y Windows 98, al realizar la conversión a FAT32
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
111
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 112 de
167
perderemos la posibilidad de arrancar en MS-DOS (opción "Versión
anterior de MS-DOS" del menú de arranque de Windows 98). Con una
conversión inversa se puede recuperar esta opción. Por estos motivos de
incompatibilidades, no es conveniente utilizar este sistema de archivos
en particiones que contengan datos que deban ser visibles desde otros
sistemas de archivos. En los demás casos, suele ser la opción más
recomendable.
En la siguiente tabla, se comparan los tamaños de grupo utilizados
según el tamaño de la partición y el sistema de archivos empleado:
Tamaño de la partición
Tamaño del cluster
FAT
< 128 MB
2 KB
128 MB - 256 MB
4 KB
256 MB - 512 MB
8 KB
512 MB - 1 GB
16 KB
1 GB - 2 GB
32 KB
FAT32
No soportado
4 KB
2 GB - 8 GB
8 GB - 16 GB
16 GB - 32 GB
No soportado
32 GB - 2 TB
8 KB
16 KB
32 KB
NTFS (New Technology File System, sistema de archivos de
nueva tecnología)
Este es el sistema de archivos que permite utilizar todas las
características de seguridad y protección de archivos de Windows NT.
NTFS sólo es recomendable para particiones superiores a 400 MB, ya
que las estructuras del sistema consumen gran cantidad de espacio.
NTFS permite definir el tamaño del grupo (cluster), a partir de 512 bytes
(tamaño de un sector) de forma independiente al tamaño de la
partición.
Las técnicas utilizadas para evitar la fragmentación y el menor
desaprovechamiento del disco, hacen de este sistema de archivos el
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
112
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 113 de
167
sistema ideal para las particiones de gran tamaño requeridas en grandes
ordenadores y servidores.
HPFS (High Performance File System, sistema de archivos de alto
rendimiento)
HPFS es el sistema de archivos propio de OS/2. Utiliza una estructura
muy eficiente para organizar los datos en las particiones.
HPFS no utiliza grupos sino directamente sectores del disco (que
equivalen a un grupo de 512 bytes). En vez de utilizar una tabla FAT al
principio de la partición, emplea unas bandas distribuidas eficazmente
por toda la partición. De esta forma se consigue, suprimir el elevado
número de movimientos que los cabezales de lectura/escritura tienen
que realizar a la tabla de asignación en una partición FAT. El resultado
de este sistema es una mayor velocidad de acceso y un menor
desaprovechamiento del espacio en disco.
MS-DOS (y Windows 3.1) reconoce únicamente particiones FAT;
Windows 95 admite tanto particiones FAT como VFAT; Windows 98 y
Windows 95 OSR2 soportan FAT, VFAT y FAT32; Windows NT 4.0
admite particiones FAT, VFAT y NTFS; el futuro Windows 2000 dará
soporte a las particiones FAT, VFAT, FAT32 y NTFS; Linux admite su
propio sistema de archivos y, dependiendo de las versiones, la mayoría
de los anteriores.
7. Arranque específico de cada sistema operativo
MS-DOS, Windows 95 y Windows 98
Los sistemas operativos MS-DOS y Windows 9x, necesitan arrancar
desde una partición primaria ubicada en la primera unidad física de
disco duro. Además, la instalación de estos sistemas operativos en
particiones que comiencen después de los primeros 528 MB del disco
duro, puede impedir que arranquen. Según lo anterior, el lugar para
situar la partición se ve reducida a los primeros 528 MB del primer disco
duro. Este límite imposibilita entonces la instalación de varios sistemas
operativos basados en FAT en particiones mayores de este tamaño. De
todas maneras, algunos gestores de arranque (o la propia BIOS del
ordenador) son capaces de cambiar la asignación de discos duros de
forma que el primero sea el segundo y el segundo, el primero: en este
caso particular sí sería posible arrancar una partición FAT desde una
segunda unidad física.
Windows NT
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
113
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 114 de
167
Windows NT puede arrancar desde cualquier disco duro, ya sea desde
una partición primaria o desde una partición lógica. Sin embargo, en el
caso de que se instale en una partición lógica o en un disco duro distinto
al primero, es necesario que el gestor de arranque de Windows NT se
instale en una partición primaria del primer disco duro. Si tenemos ya
instalado otro sistema operativo MS-DOS o Windows 9x, Windows NT
instalará su gestor de arranque en el sector de arranque de la partición
del anterior sistema operativo. Este gestor de arranque permitirá
arrancar tanto el anterior sistema operativo como Windows NT (ya esté
en una partición lógica o en otro disco duro).
Linux
Linux, al igual que Windows NT, puede instalarse en una partición
primaria o en una partición lógica, en cualquiera de los discos duros. Si
la instalación no se realiza en una partición primaria del primer disco
duro, es necesario instalar un gestor de arranque. Linux proporciona un
potente (aunque poco intuitivo) gestor de arranque llamado LILO. Las
posibilidades de instalación son dos: instalarlo en la partición de Linux o
en el sector de arranque del disco duro (Master Boot Record). La
primera opción es preferible si Linux se instala en una partición primaria
del primer disco duro (debe ser la partición activa) junto a otro sistema
operativo. Para el resto de los casos, no queda más remedio que
instalarlo en el Master Boot del primer disco duro. Desde aquí es capaz
de redirigir el arranque incluso a una partición lógica (que, como
sabemos, no se pueden activar) que contenga Linux. Nótese que, en
este caso, si borramos la partición de Linux el gestor de arranque
LILO seguirá apareciendo (ya que está antes de acceder a cualquier
partición). La única manera de desinstalarlo si no podemos hacerlo
desde el propio Linux, consiste en restaurar el sector de arranque
original. Esto se puede lograr desde MS-DOS con la orden
indocumentada FDISK /MBR.
Otra advertencia más: algunas distribuciones de Linux (como Red Hat)
no respetan el espacio libre de una partición extendida. Esto significa
que hay que tener cuidado de no solapar una partición primaria de Linux
con espacio libre de la partición extendida.
En todos los casos anteriores, cuando se habla de instalar un sistema
operativo en una partición primaria se asume que ésta tiene que estar
activada a no ser que se utilice un gestor de arranque. En este caso, si
el gestor de arranque se instala en una partición, ésta deberá activarse;
pero si se instala en el sector de arranque del disco duro, la partición
activa será indiferente.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
114
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 115 de
167
8. Consejos a la hora de crear particiones
¿Qué partición elegir?
La principal decisión que debemos tomar a la hora de crear una partición
es elegir entre primaria o lógica. Recordemos que las particiones lógicas
deben ser creadas dentro de una partición primaria especial denominada
partición extendida. Ya hemos visto que la mejor política que podemos
seguir es utilizar, en la medida de lo posible, antes las particiones
lógicas que las primarias: podemos crear un número indefinido de
particiones lógicas pero sólo cuatro particiones primarias (contando la
extendida).
Las particiones primarias suelen ser el lugar ideal para instalar sistemas
operativos, ya que son las únicas que se pueden activar. Los sistemas
operativos MS-DOS, Windows 95 y Windows 98 sólo pueden ser
instalados en particiones primarias. Y aunque Windows NT, Linux y OS/2
puedan ser instalados en particiones lógicas, puede que ésta no sea
siempre la opción más acertada. La razón es que es necesario instalar
algún gestor de arranque, ya sea en el sector de arranque del disco duro
o en el de alguna partición primaria. Si no deseamos alterar ninguna de
las particiones primarias existentes ni el sector de arranque, la única
opción es realizar una instalación en una partición primaria del primer
disco duro.
¿Dónde situar la partición?
Debido a que MS-DOS y Windows 9x presentan problemas al instalarse
detrás de los primeros 528 MB del disco duro, es preferible crear sus
particiones al principio del disco duro (o lo antes posible, sin superar
este límite). Los demás sistemas operativos, en caso de haberlos, se
instalarán entonces a continuación. Generalmente suele ser más
acertado instalar los sistemas operativos en el primer disco duro. Sin
embargo, debido a la flexibilidad de Linux o Windows NT podemos
inclinarnos por otras opciones dependiendo de la configuración actual de
nuestro equipo.
¿Cuántas particiones crear?
Algunos usuarios prefieren separar los sistemas operativos, programas y
datos en sus correspondientes particiones. Esto puede aportar una
mayor robustez al sistema, ya que la corrupción de los archivos del
sistema operativo o los programas no afectan a los datos. Además, si
utilizamos particiones separadas para los sistemas operativos y los
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
115
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 116 de
167
programas, nos facilita la utilización de los mismos programas desde
distintos sistemas operativos. Por ejemplo, una partición lógica FAT para
programas permitiría ejecutar los mismos programas desde Windows NT
(instalado en una partición NTFS) o desde Windows 98 (instalado en una
partición FAT32). Pero esta disposición del disco duro aumenta su
complejidad (un mayor número de unidades) y obliga a calcular a priori
el tamaño de cada partición. Como ya dijimos anteriormente, las únicas
particiones que deben ser primarias son las de los sistemas operativos,
el resto serán lógicas.
Una opción intermedia consiste en separar los archivos del sistema
(sistema operativo y programas) de nuestros datos. De esta manera, no
se utilizan tantas unidades aunque sí se ofrece una mayor seguridad y
organización para nuestros datos.
¿De qué tamaño?
Nos quedan por comentar las razones de eficiencia que nos pueden
llevar a crear nuevas particiones. Para evitar desperdiciar el menor
espacio posible con particiones FAT o VFAT, conviene que tengan un
tamaño lo menor posible (recordemos que el tamaño del grupo depende
del tamaño de la partición). Sin embargo, el aumento del número de
particiones, aunque sea más eficiente, hace más complejo nuestro
sistema. Debemos buscar entonces un compromiso entre el número de
particiones creadas y el tamaño del grupo (cluster) empleado en cada
una de ellas.
Veamos unos ejemplos (en todos ellos suponemos que deseamos
trabajar únicamente en Windows 95 con particiones FAT): si tenemos un
disco duro de 2,5 GB y, ya que el máximo de una partición FAT es 2 GB,
es más eficiente crear una de 1 GB (grupo de 16 KB) y otra de 1,5 GB
(grupo de 32 KB) que dos de 1,25 GB (grupo de 32 KB); si tenemos un
disco duro de 3 GB, es igualmente más eficiente una de 1 GB (16 KB) y
otra de 2 GB (32 KB) que dos de 1,5 GB (32 KB), aunque en razones de
eficiencia sería mucho mejor 3 de 1 GB (16 KB); por último, si tenemos
un poco más de 1 GB libre en el disco duro es preferible crear una
partición que utilice un grupo de 16 KB, aunque quede espacio sin
particionar, que una de 32 KB que ocupe la totalidad del espacio, ya que
a la larga el desaprovechamiento sería mayor.
Problemas con las letras de unidades: orden de las particiones
Cuando se realizan cambios en las particiones, hay que considerar los
posibles efectos que esto puede desencadenar en la asignación de letras
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
116
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 117 de
167
de unidades. Los sistemas operativos MS-DOS y Windows 9x utilizan la
letra C para la unidad del sistema operativo. Al resto de unidades
visibles se les asigna letra en el siguiente orden: particiones primarias
detrás de la actual, particiones primarias de los siguientes discos duros,
particiones lógicas de la unidad actual, particiones lógicas de los
siguientes discos duros, particiones primarias anteriores a la actual y,
por último, el resto de unidades físicas (como la unidad lectora de CDROM).
Unidades visibles.— Son las unidades que se pueden ver
desde un sistema operativo, es decir, aquellas que utilizan
un sistema de archivos reconocido por el sistema operativo.
Las particiones con un sistema de archivos incompatible con
el sistema operativo no son accesibles (es como si no
existiesen).
La única letra que se puede cambiar manualmente es la del CD-ROM, el
resto de letras son asignadas automáticamente sin posibilidad de
cambio. En ocasiones es preferible asignar una letra alta (por ejemplo la
R) a la unidad de CD-ROM ya que así no se ve afectada por los posibles
cambios de configuración en las particiones.
Para cambiar la letra del CD-ROM en MS-DOS es necesario modificar la
línea del AUTOXEC.BAT que contenga la orden MSCDEX y añadir al final
el modificador /L:unidad, donde unidad es la letra que deseamos
asignar. Si no hay suficientes letras de unidades disponibles (por defecto
sólo están permitidas hasta la D), es necesario añadir la siguiente línea
al CONFIG.SYS: LASTDRIVE=Z. En este caso, se han definido todas las
letras posibles de unidades (hasta la Z).
En Windows 95 o Windows 98, elegimos Sistema del Panel de
Control; seleccionamos la segunda ficha (Administrador de dispositivos);
hacemos clic en el signo más a la izquierda de CD-ROM; hacemos doble
clic sobre nuestra unidad de CD-ROM; y, finalmente, en el campo Letra
de la primera unidad de la ficha Configuración, seleccionamos la letra
que deseamos asignar a la unidad de CD-ROM.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
117
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 118 de
167
Windows NT, permite la asignación dinámica de letras de unidad
mediante el Administrador de discos. En Windows NT, la primera letra
de unidad es la primera partición primaria del primer disco duro, por lo
que puede ocurrir que la propia partición de Windows NT no sea la C.
Linux carece de estos problemas ya que no trabaja con letras de unidad
sino con discos duros físicos (hda, hdb, hdc y hdd) y particiones según
el lugar que ocupan en la tabla de particiones (hda1, hda2, hda3…).
Para evitar que las mismas particiones tengan asignadas distintas letras
conviene colocar primero las particiones reconocidas por más sistemas
operativos (FAT) y por último las más específicas (como NTFS o la de
Linux).
9. Trabajar con varios sistemas operativos
Si instalamos varios sistemas operativos en el mismo ordenador,
debemos tener una manera eficiente de arrancar con cada uno de ellos.
Una posibilidad poco acertada consiste en activar cada vez la partición
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
118
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 119 de
167
que queremos arrancar en la próxima sesión con el ordenador. La otra
posibilidad es instalar un gestor de arranque que aparezca antes de
cargar algún sistema operativo.
Los gestores de arranque suelen ofrecer un menú con los distintos
sistemas operativos instalados para que el usuario elija uno de ellos
cada vez que encienda el ordenador. Es frecuente que tengan alguna
opción predeterminada y un contador de tiempo. Si en un tiempo
establecido no se elige ninguna opción, se carga automáticamente el
sistema operativo predeterminado.
El gestor de arranque suministrado con Windows NT 4.0 se suele
instalar en una partición MS-DOS o Windows 9x, y sólo permite elegir
entre esta partición y la de Windows NT.
LILO, el gestor de arranque de Linux, puede instalarse tanto en el
sector de arranque del disco duro como en la partición de Linux.
Reconoce la mayoría de los sistemas operativos instalados en el
ordenador y puede, incluso, arrancar sistemas operativos MS-DOS o
Windows 9x desde un segundo disco duro. El mayor inconveniente es su
poco amistoso modo de empleo. Al cargarse aparece un mensaje (LILO
Boot) pidiéndonos el nombre del sistema operativo. Es necesario
escribirlo y pulsar Enter. La tecla Tabulador permite ver las opciones
posibles y Enter activa la opción predeterminada.
Otros gestores de arranque, como el de IBM (suministrado con
Partition Magic 3.0), necesitan una partición primaria del primer disco
duro exclusivamente para ellos. Lógicamente, ésta debe ser la partición
activa. El gestor de arranque de IBM tiene una interfaz de usuario
cómoda, aunque también algunas limitaciones: tiene problemas para
arrancar sistemas operativos desde una unidad de disco duro diferente a
la primera, ocupa una de las cuatro particiones primarias posibles del
primer disco duro, y no es capaz de arrancar una partición primaria
FAT32 (Windows 98) si existen en el disco duro otras particiones
primarias FAT32 o FAT (como MS-DOS).
Cuando se trabaja con varios sistemas operativos conviene elegir
correctamente los sistemas de archivos de cada partición, con el fin de
intercambiar y compartir datos entre los sistemas instalados.
10. Trabajar con dos o más discos duros
Cuando se trabaja con varios discos duros sólo el primero de ellos es
arrancable. De todas maneras, algunas BIOS permiten intercambiar los
discos duros primero y segundo (en estos casos, el segundo se
comportaría como si fuera el primero y el primero como el segundo).
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
119
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 120 de
167
El ordenador arrancará desde la partición activa del primer disco duro y
no se tendrá en cuenta cuál es la partición activa en el resto de los
discos duros. Estos discos duros normalmente se utilizan para
almacenar programas, datos e incluso alguno de los sistemas operativos
que lo permiten (como Windows NT, Linux u OS/2). No debemos olvidar
los problemas que se pueden producir al incorporar un nuevo disco duro
a nuestro ordenador con las letras de unidad. Para evitar el menor
número posible de cambios, es preferible utilizar particiones lógicas en
el resto de discos duros (ya que se colocan al final de la lista de
unidades aunque, eso sí, antes de la correspondiente al CD-ROM)
11. Instalación de un disco duro
Actualmente los discos duros, según la conexión que incorporen, pueden
ser de dos tecnologías: IDE o SCSI (léase escasi). Lo usual es utilizar
discos duros IDE, ya que son soportados por todo tipo de ordenadores,
aunque tengan unas prestaciones inferiores a la de sus equivalentes
SCSI, más propios de servidores y grandes ordenadores. En este
apartado nos centraremos únicamente en la instalación de discos duros
IDE.
Notas sobre el estándar IDE: La especificación IDE
(Integrated Drive Electronics) original admitía únicamente 2
discos duros de hasta 500 MB y fue adoptado como estándar
por el comité ANSI bajo el nombre de ATA (Advanced
Technology Attachement). Una posterior revisión permitió
utilizar 4 discos duros de hasta 8,4 GB. Surgió entonces lo
que actualmente conocemos como EIDE (Enhanced IDE). El
comité ANSI lo adoptó como estándar con el nombre de
ATA-2 o Fast ATA. Permite unas tasas de transferencia de
16,6 MB/segundo. En este apartado, cuando hablemos de
IDE, nos estamos refiriendo a toda la familia de estándares
y no sólo al IDE original.
UDMA.— UDMA (Ultra DMA), también conocido como Ultra
ATA, Ultra EIDE o Ultra/33 es una revisión del estándar
EIDE que acelera las tasas de transferencia hasta 33
MB/segundo. Para que pueda utilizarse es necesario que,
tanto la controladora de discos duros como el propio disco
duro, admitan UDMA. Todas las placas base y discos duros
modernos admiten este estándar, el cual es compatible con
EIDE.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
120
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 121 de
167
La instalación de un disco duro, como la de cualquier otro dispositivo de
un ordenador, consta de dos fases: instalación física e instalación lógica.
Instalación física
Las actuales placas base llevan incorporada una controladora para
cuatro discos duros. La conexión de los discos duros a la placa base se
realiza mediante dos cables planos iguales: IDE0 (primario) e IDE1
(secundario). Cada uno de estos cables tiene una conexión de 40 pines
a la placa base y dos conexiones más de 40 pines para sendos discos
duros. De esta manera, el máximo número posible de discos duros IDE
en un ordenador es de 4: dos en el IDE0 y otros dos en el IDE1. Y esto
es considerando que no se conectan otros dispositivos a los mismos
cables, ya que las unidades de CD-ROM, grabadoras, unidades de cinta,
unidades ZIP y unidades LS-120, por citar algunos ejemplos, se
conectan igualmente a los cables IDE.
Debido a que lo normal en los ordenadores actuales es que vengan
únicamente con un disco duro y una unidad de CD-ROM, no se suele
utilizar el IDE1 y, en consecuencia, no se suministra el segundo cable.
Por otro lado, algunos ordenadores incorporan cables para un solo
dispositivo, que deberemos reemplazar si deseamos conectar dos.
Entonces, para conseguir el mayor número posible de dispositivos
conectados a la placa base necesitaremos dos cables IDE de dos
dispositivos.
Cuando se conectan dos dispositivos a un mismo cable, uno de ellos se
ha de comportar como dueño (master) y el otro como esclavo (slave). El
dispositivo dueño se sitúa en el extremo del cable y el esclavo, en la
parte central (el cable parte de la placa base). Cuando solamente hay
un dispositivo en un cable, éste debe situarse en la parte final,
quedando la conexión central libre.
El dispositivo principal debe situarse en el IDE0 master. Un segundo
dispositivo podrá ir, bien en el IDE0 slave o bien, en el IDE1 master. Un
tercero igualmente podrá ir en el IDE0 slave o en IDE1 slave, si el IDE1
master ya estaba utilizado. La norma es no utilizar la conexión esclavo
antes que la conexión dueño.
Nota importante: Las conexiones de 40 pines del cable
sólo se pueden conectar de una manera. La manera correcta
es hacer coincidir el pin 1 de la conexión (serigrafiado en el
dispositivo) con el pin 1 del cable (situado en el extremo del
cable marcado con una banda roja): Línea roja al pin 1. Esta
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
121
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 122 de
167
norma hay que tenerla en cuenta tanto en la conexión a la
placa base como en cada una de las conexiones con los
dispositivos (en general, es válida para cualquier conexión
de un cable plano). Si no se tiene en cuenta, puede que el
ordenador ni siquiera arranque. Por otro lado, se puede
conectar cualquiera de los dos extremos del cable a la placa
base, es decir, no hay uno prefijado; sin embargo, es usual
conectar a la placa base el que esté más alejado del central.
Antes de realizar la conexión física del disco duro al conector adecuado,
es necesario configurarlo como dueño o esclavo. Con este fin, y muy
próximo al conector macho de 40 pines, se encuentran unos puentes de
configuración (jumpers). Debemos seguir las indicaciones del fabricante
para colocar los puentes de manera correcta; teniendo en cuenta que si
sólo hay un disco duro o si va al extremo del cable, hay que configurarlo
como dueño (master) y si va a la parte central del cable, como esclavo
(slave). La configuración por defecto (de fábrica) para los discos duros
es de dueño y para las unidades de CD-ROM, de esclavo.
Nota: Normalmente estos son todos los puentes que lleva
un dispositivo IDE; sin embargo, hemos comprobado que
algunas unidades de CD-ROM incorporan otro puente para
activar el UDMA. Estando este puente cerrado (recomendado
para Windows 98) acelera la velocidad de transferencia de la
unidad, pero puede ocasionar problemas con algunos
sistemas operativos. La opción por defecto es el puente
abierto (UDMA desactivado).
Además, es necesario que el disco duro reciba corriente de la fuente de
alimentación. Para ello la fuente de alimentación del ordenador debe
disponer de algún cable libre que se conectará al disco duro.
Una vez que hemos configurado los puentes de los discos duros y hemos
realizado correctamente las conexiones de los cables IDE y de
alimentación, sólo nos resta atornillar la unidad a la caja (chasis) del
ordenador. Ni que decir tiene que debemos utilizar los tornillos
adecuados para no perforar la unidad y dañarla. La mayoría de discos
duros necesitan una bahía libre de 3 pulgadas y media. Si no quedasen
bahías libres de este tipo pero sí de 5 pulgadas y cuarto, será necesario
utilizar un adaptador. Con este paso, finalizamos la instalación física. De
todas maneras, la experiencia recomienda no cerrar todavía el
ordenador hasta que hayamos comprobado que realmente funciona.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
122
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 123 de
167
Instalación lógica
Llegados a este punto, ya podemos encender el ordenador. Si no
arrancase (pantalla negra), deberemos revisar las conexiones y puentes
del apartado anterior.
Aunque algunas BIOS presentan detección automática de discos duros al
arrancar, vamos a proceder a la instalación de los discos duros mediante
el programa de configuración (Setup) del ordenador. Este paso es
necesario para que la BIOS del ordenador reconozca los discos duros
que tiene instalados. Entramos en el Setup de la manera indicada en el
manual del ordenador (normalmente pulsando la tecla Suprimir al
chequear la memoria, después de encender el ordenador). En el menú
del Setup, buscamos una opción para autodetectar discos duros. Si no
existiese, deberemos inscribir los discos duros en la BIOS de forma
manual, según los datos proporcionados por el fabricante: cilindros,
cabezas y sectores. Para cada disco duro tenemos que elegir el modo en
el cual va a trabajar (normal, LBA, large...). La opción recomendada
para discos duros menores de 528 MB es normal y para el resto, LBA.
Sin embargo, discutiremos sobre este punto más adelante. Una vez
comprobados los valores, salimos del Setup guardando los cambios. Si
se presentase algún error o no se reconociese algún disco duro,
deberemos repasar tanto las conexiones y puentes del apartado anterior
como la configuración de la BIOS.
La instalación lógica como tal del disco duro en el ordenador ha
terminado. El siguiente paso consiste en particionar el disco duro y
configurar cada una de las particiones para un sistema de archivos
concreto.
Particionar el disco duro
Los programas habituales para particionar un disco duro son FDISK
(proporcionado con MS-DOS y los sistemas operativos Windows) y
Partition Magic (programa comercial válido para MS-DOS, Windows y
OS/2).
Las distintas versiones de FDISK se pueden clasificar básicamente en
dos: las que trabajan únicamente con FAT (FDISK de MS-DOS y
Windows 95) y las que también soportan FAT32 (FDISK de Windows 95
OSR2 y Windows 98). En este último caso, FDISK preguntará al arrancar
si se desea habilitar el soporte para unidades de gran capacidad. Si
respondemos que sí a esta pregunta, las particiones que se creen serán
FAT32; en caso contrario, serán FAT. Es decir, una partición es FAT32 o
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
123
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 124 de
167
FAT no según la herramienta que se utilice para formatear la unidad,
sino según el método utilizado al particionar.
FDISK presenta importantes limitaciones: no se puede crear una
partición extendida sino existe ya una partición primaria FAT o FAT32 en
la unidad; no se pueden variar las particiones creadas sino es
borrándolas y creándolas de nuevo; y sólo permite trabajar con
particiones FAT o FAT32.
Advertencia: El borrado de una partición implica la pérdida
de todos sus datos.
Partition Magic presenta muchas más ventajas y opciones avanzadas
que FDISK. Permite algo totalmente impensable hasta hace poco
tiempo: variar el tamaño de una partición y su localización sin perder su
contenido. Además es compatible con un buen número de sistemas de
archivos, incluidos NTFS, HPFS y el de Linux. Entre las opciones
avanzadas destaca la variación del tamaño del grupo (cluster) de una
partición sin afectar a su contenido. Por estas razones, Partition Magic
es la herramienta ideal para la gestión de particiones.
Ambas herramientas permiten la activación de la partición primaria que
se desee arrancar.
Para que sea posible acceder a estas utilidades debemos disponer de un
disco duro arrancable o un disquete con sistema. Si el primer disco duro
no tiene sistema, no queda más remedio que arrancar desde un
disquete (o un CD-ROM, si fuera posible). En este caso, es necesario
que la secuencia de arranque del ordenador sea A:, C:.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
124
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 125 de
167
Consejo: Cuando realice cambios a las particiones de su
disco duro es más que recomendable disponer de un
disquete con sistema, ya que será la única forma de acceder
al ordenador si su disco duro perdiese el arranque. Desde
MS-DOS se puede crear con las órdenes SYS A: o FORMAT
A: /S.
Formatear cada partición
Una vez creadas las particiones, es necesario dar formato a cada una de
ellas. Si se trata de una partición que va a contener un sistema
operativo, el propio programa de instalación nos guiará por este proceso
(Partition Magic es capaz de formatear las particiones a la vez que las
crea). Pero si la partición va a ser para programas o datos de un
sistema operativo, esta operación será necesario realizarla desde las
herramientas proporcionadas por el sistema operativo instalado. En el
caso de MS-DOS es FORMAT unidad:, donde unidad es la letra de la
unidad que se desea formatear.
Advertencia: El formateo de una partición lleva consigo la
destrucción de todos sus datos.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
125
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 126 de
167
Activar la partición de arranque
Después de crear y formatear todas las particiones, es necesario activar
(si no lo estaba ya) aquella partición del primer disco duro que
queremos que arranque al encender el ordenador.
12. Limitaciones de capacidad. Modos normal (CHS) y LBA
Cuando se diseñó el primer disco duro de 10 MB, nadie que no fuera
tomado por loco podía predecir las enormes capacidades de los discos
duros actuales. Debido a este vertiginoso aumento de capacidades, se
han ido llegando a ciertos límites de capacidades impuestos por el
diseño de la BIOS del ordenador o de los propios sistemas operativos.
Esto trae como consecuencia que nuestro ordenador no reconozca un
disco duro moderno de gran capacidad o que sólo reconozca una parte.
Los casos siguientes dependiendo del elemento que origina el problema,
se solucionan bien actualizando la BIOS del ordenador o bien,
actualizando el sistema operativo utilizado.
Límite de 528 MB
Las BIOS antiguas (anteriores a 1994 aproximadamente) no soportan
discos duros superiores a esta capacidad. Estos discos duros se
caracterizan por tener más de 1024 cilindros. La solución consiste en
actualizar la BIOS o en utilizar un programa residente en el sector de
arranque del disco duro (como el Disk Manager de Seagate o el Ontrack
Disk Manager de Quantum) que filtre los accesos a los discos. Estos
métodos realizan una conversión de los valores reales de cilindros,
cabezas y sectores del disco duro (CHS) a unos valores virtuales que no
superen el límite de los 1024 cilindros (LBA).
Por ejemplo, el disco duro de Seagate con valores reales de 6253
cilindros, 16 cabezas y 63 sectores se convierte a unos valores virtuales
de 781 cilindros, 128 cabezas y 63 sectores. Como podemos observar,
el valor de 128 cabezas (64 platos) no es una cifra real, pero permite la
disminución del número de cilindros de forma que no supere el límite de
1024 y sigan siendo direccionables los mismos sectores (igual
capacidad). Mediante esta conversión, los sistemas operativos DOS y
Windows pueden acceder al espacio por encima de los 528 MB. Estos
parámetros virtuales, proporcionados por el fabricante, son conocidos
por el nombre de LBA (Logical Block Addressing, direccionamiento lógico
de bloques). Para discos duros que superen este límite, es la opción
recomendada.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
126
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 127 de
167
Advertencia: Una vez que existen datos en el disco duro,
no se debe cambiar el modo del disco duro ya que los
sectores se direccionan de otra manera y esto puede
desencadenar pérdida de datos.
Límite de 2 GB
Las BIOS de algunos ordenadores no soportan discos duros de más de
4092 cilindros (aproximadamente 2 GB). En estos casos, es necesario
actualizar la BIOS a una que reconozca discos de más capacidad.
Este límite coincide también con el tamaño máximo de las particiones
FAT (no del disco). Viene impuesto por la utilización de una FAT de 16
bits, que sólo es capaz de direccionar 216 grupos = 65.536. Como el
tamaño máximo del grupo es de 32 KB, la capacidad resultante es
65.536 grupos * 32 KB/grupo = 2.097.152 KB = 2 GB.
Límite de 8,4 GB
Igualmente al caso anterior, este límite lo tienen algunas BIOS y
algunos sistemas operativos como DOS y Windows 95. Para superar
este límite es necesario una BIOS actualizada y un sistema operativo
que lo permita (como Windows 95 OSR2 ó Windows 98, que están
basados en FAT32). También es posible utilizar un controlador de discos
duros residente en memoria, como alternativa a BIOS no actualizadas.
Límite de 2 TB
Este es el límite de las particiones FAT32, todavía lejos de las
capacidades de los discos duros actuales.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
127
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 128 de
167
Linux Vs. Windows
¿Cuales son las ventajas de Linux frente a Windows, en que se
diferencian?
LA
INSTALACIÓN:
En Linux a pesar de todos los
esfuerzos la instalación no resulta sencilla
siempre, pero te permite personalizar
totalmente los paquetes que quieras
instalar.
En Windows la instalación es mínimamente configurarle
aunque es muy sencilla.
LA COMPATIBILIDAD:
Ninguno de los dos sistemas operativos son totalmente compatibles con
el Hardware, a pesar de que Windows se acerca más, los dos están
cerca de conseguirlo.
Aunque Linux no esta detrás de ninguna casa comercial
gracias a su elevada popularidad ofrece una alta compatibilidad
ofreciendo, además, actualizaciones frecuentes.
Windows al ser parte de Microsoft intenta ofrecer una gran
cantidad de drivers ya que su gran poder económico hace que las
empresas mismas de hardware creen sus propios drivers.
SOFTWARE:
Linux al tener menos software en algunos campos sufre una
menor aceptación por parte de las empresas, aunque gracias a los
apoyos de empresas como Sun Microsystems o IBM se ha logrado
muchos avances.
Windows al ser el mas fácil de usar en las empresas, posee
una gran cantidad de software.
ROBUSTEZ:
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
128
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 129 de
167
Linux se ha caracterizado siempre por la robustez de su
sistema ya que pueden pasar meses e incluso años sin la
necesidad de apagar o reiniciar el equipo, también si una
aplicación falla simplemente no bloquea totalmente al equipo.
En Windows siempre hay que reiniciar cuando se cambia la
configuración del sistema, se bloquea fácilmente cuando ejecuta
operaciones aparentemente simples por lo que hay que reiniciar el
equipo.
CONCLUSIÓN:
Tanto Windows como Linux tienen su ventajas y inconvenientes, aunque
desde un punto de vista mas técnico Linux sale ganando.
RAZONES PARA CAMBIAR:
Es software libre, lo que quiere decir que no hay que pagar
nada por el sistema en sí.
Es un sistema operativo muy fiable ya que hereda la
robustez de UNIX.
Ideal para las redes ya que fue diseñado en internet y para
internet
No es cierto que tenga pocos programas, solo en algún
campo muy especifico.
Es 100% configurarle.
Es el sistema mas seguro, ya que al disponer del código
fuente cualquiera puede darse cuanta de algún fallo, se puede
decir que decenas de miles de personas velan por tu seguridad.
Existe muchísima documentación, también en español
gracias a los proyectos como LUCAS.
Cuenta con el soporte de muchas grandes empresas como
IBM, Corel, Lotus, Siemens, Motorola, Sun, etc.
Puedes encontrar ayuda en millones de sitios en internet
como los foros.
Es muy portable, si tienes un Mac un Alpha o un Sparc
puedes usar Linux sin problemas.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
129
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 130 de
167
MÓDULO # 13: Software dañino y virus
SOFTWARE MALICIOSO
A pesar de la importancia que ha tomado hoy en día, el software
malicioso data desde la primera red dedicada ARPANET en los años 70.
A medida que fueron aumentando los usuarios de computadores
personales en los años 80, de igual forma fue aumentando la presencia
de software malicioso en los computadores y redes del mundo.
Desde entonces, ha surgido una gran variedad de software malicioso
que ha venido avanzando junto con la tecnología, de manera que hoy
día se requiere de herramientas sofisticadas para impedir ataques a los
sistemas de información.
Clasificación del software malicioso
El software malicioso se puede clasificar en dos grandes categorías:
aquellos que requieren de un programa host, y aquellos que son
independientes, y así mismo, también se pueden clasificar en aquellos
que se pueden duplicar, y aquellos que no, como se muestra en la
figura.
SOFTWARE
MALICIOSO
Independiente
Necesita un
programa
host
Puerta
trasera
Bombas
lógicas
Caballos
de Troya
Gusano
Virus
Sonámb
ulo
Se pueden duplicar
Figura 1 Clasificación de los Virus
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
130
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 131 de
167
Puerta trasera.
Una puerta trasera es un punto de entrada secreto a un programa que
permite a alguien que sepa de la puerta trasera, tener acceso sin pasar
a través de un procedimiento de acceso usual. Las puertas traseras han
sido usadas de forma legítima por programadores para hacer depuración
y prueba de programas. Esto usualmente se hace cuando el
programador está desarrollando una aplicación que tiene un proceso de
autenticación, o una inicialización larga, que requieren que el usuario
utilice muchos valores distintos para correr la aplicación. Para depurar el
programa, el desarrollador desearía obtener privilegios especiales para
evitar toda la autenticación e inicialización necesaria. El programador
también desearía asegurar que existe un método para la activación del
programa en caso de que existan problemas en el proceso de
autenticación que se construyó en la aplicación. La puerta trasera es un
código que reorganiza algunas secuencias especiales de entrada o es
accionado por cierta identificación de usuario o por una secuencia de
eventos poco comunes.
Estas se vuelven amenaza cuando son usadas por programadores
inescrupulosos para obtener accesos no-autorizados.
Es difícil implementar controles del sistema operativo para las puertas
traseras. Las medidas de seguridad deben enfocarse en el desarrollo de
programas y actividades de actualización de software.
Bombas lógicas.
Este es uno de los tipos de programas maliciosos más viejos, que
preceden a los virus y gusanos. Las bombas lógicas son código
embebido en algún programa legítimo que es programado para
“desatarse” cuando se cumplan ciertas condiciones. Ejemplos de
condiciones que pueden ser usadas como activadores de las bombas
lógicas, son la presencia o ausencia de ciertos archivos, un día particular
de una semana o una fecha, o un usuario particular ejecutando una
aplicación. Una vez que es activada, una bomba puede alterar o borrar
datos, o archivos enteros, causar una suspensión en la máquina, o hacer
algún otro daño.
Caballos de Troya.
Un Caballo de Troya es un procedimiento de comandos o programa, útil,
o provechoso que contienen código oculto que cuando es invocado, lleva
a cabo algunas funciones dañinas o no deseadas.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
131
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 132 de
167
Los Caballos de Troya pueden ser usados para llevar a cabo funciones
que un usuario no-autorizado no pueda llevar a cabo directamente. Por
ejemplo, para tener acceso a archivos de otros usuarios en un sistema
compartido, un usuario puede crear un caballo de Troya, que cuando se
ejecute, cambie los permisos de archivo, de manera que los archivos
sean leíbles por cualquier usuario. El autor podría entonces inducir a los
usuarios a correr el programa, localizándolo en un directorio común y
nombrándolo de tal forma, que parezca una aplicación útil. Un ejemplo,
es un programa que produce un listado de los archivos de usuario en un
formato deseable. Después de correr el programa, el autor puede tener
acceso a la información en los archivos de usuario.
Otra motivación común para los caballos de Troya es la destrucción de
datos. El programa parece estar llevando a cabo una función útil (p. Ej.,
un programa de calculadora), pero este también podría estar borrando
los archivos de usuario de forma imperceptible.
Sonámbulos.
Un sonámbulo es un programa que secretamente maneja otro
computador conectado a la Internet, y entonces, utiliza este computador
para lanzar ataques que son difíciles de rastrear al creador del
sonámbulo. Los sonámbulos son usados para ataques en negaciones-deservicio, típicamente en contra de sitios Web específicos. El sonámbulo
se planta en cientos de computadores pertenecientes a terceros no
sospechosos, y entonces, son usados para sobrecargar el sitio Web
específico lanzando un ataque abrumador de tráfico de Internet.
Virus.
Un virus es un programa que puede “infectar” otros programas por
medio de su modificación; la modificación incluye una copia del
programa virus, el cual entonces, puede ir a infectar otros programas.
Los virus biológicos son pequeñas piezas de código genético- DNA o
RNA- que pueden controlar la maquinaria de una célula viva y engañarla
para hacer miles de réplicas exactas del virus original. Al igual que su
contraparte biológica, un virus de computador lleva en su código de
instrucciones la receta para hacer copias perfectas de sí mismo. Una vez
alojados en un computador host, los virus típicos toman control
temporal del sistema operativo de disco del computador. Entonces,
cualquier pieza de software no infectada con la que el computador
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
132
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 133 de
167
infectado entre en contacto, se le pasará una nueva copia del virus. Por
esto, la infección puede expandirse de computador en computador por
usuarios no-sospechosos, ya sea por intercambio de disquete o por el
envío de programas a través de la red. En un ambiente de red, la
habilidad de acceder a aplicaciones y servicios del sistema en los
computadores proporciona una cultura perfecta para la expansión de los
virus.
Un virus puede hacer cualquier cosa que otro programa haga. La única
diferencia es que este se adjunta a sí mismo a otro programa, y se
ejecuta secretamente cuando el programa host se corre. Una vez que el
virus se ejecuta, puede llevar a cabo cualquier función, tal como borrar
archivos y programas.
Durante su tiempo de vida, un virus típico pasa a través de las
siguientes cuatro fases:
Fase Durmiente: el virus está inactivo. El virus eventualmente será
activado por algún evento, tal como una fecha, la presencia de otro
programa de archivo, o que la capacidad del disco haya excedido algún
límite. No todos los virus tienen esta etapa.
Fase de Propagación: el virus pone una copia idéntica de sí mismo en
otros programas o en ciertas áreas del sistema en el disco. Cada
programa infectado contendrá ahora un clon del virus, el cual entrará
por sí mismo en una fase de propagación.
Fase de Activación: el virus es activado para llevar acabo la función para
la cual fue hecho. Al igual que la fase durmiente, la fase de activación
puede ser causada por una variedad de eventos del sistema, incluyendo
un conteo del número de veces que este virus a hecho copias de sí
mismo.
Fase de Ejecución: la función es ejecutada. La función puede ser no
dañina, como un mensaje en la pantalla, o dañina, como la destrucción
de programas y archivos de datos.
La mayoría de los virus llevan a cabo su trabajo en una manera que es
específica a un sistema operativo particular y, en algunos casos,
específico a una plataforma de hardware particular. Por esto, ellos son
diseñados para tomar ventaja de los detalles y debilidades de sistemas
particulares.
Estructura del Virus
Un virus puede estar al inicio o al final de un programa ejecutable, o
puede estar embebido de alguna otra forma. La clave para su operación
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
133
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 134 de
167
es que el programa infectado, cuando se invoca, primero ejecutará el
código del virus y entonces ejecuta el código original del programa.
Una descripción general de la estructura del virus se muestra en la
siguiente figura. En este caso, el código de virus, V, es añadido al inicio
del programa infectado, y se asume que el punto de entrada al
programa, cuando es invocado, es la primera línea del programa.
Figura 2 Estructura de un programa virus
Un programa infectado comienza con el código del virus y trabaja de la
siguiente manera. La primera línea del código es un salto al main del
programa del virus. La segunda línea es un marcador especial que es
usado por el virus para determinar si o no un programa victima
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
134
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 135 de
167
potencial ya ha sido infectado con este virus. Cuando el programa es
invocado, el control es inmediatamente transferido al main del programa
del virus. El programa virus primero busca archivos ejecutables no
infectados y los infecta. Luego, el virus puede llevar a cabo alguna
acción, usualmente en detrimento del sistema. Esta acción puede
llevarse a cabo cada vez que el programa se invoca, o podría ser una
bomba lógica que se activa únicamente bajo ciertas condiciones.
Finalmente, el virus transfiere el control al programa original. Si la fase
de infección del programa es razonablemente rápida es poco probable
que un usuario note la diferencia entre la ejecución de un programa
infectado y uno no infectado.
Un virus tal como el que acabamos de describir es fácilmente detectado,
porque una versión infectada del programa es más grande que su
correspondiente no infectada. Una forma de hacer fracasar esta forma
tan sencilla de detección de virus, es comprimir el archivo ejecutable de
manera que las dos versiones, infectada y no infectada queden de igual
tamaño.
Infección Inicial.
Una vez que un virus ha entrado al sistema por la infección de un
programa, este esta en posición de infectar algunos o todos los archivos
ejecutables en ese sistema, cuando el programa infectado se ejecuta.
De aquí, que la infección viral puede ser completamente prevenida
evitando en primer lugar que el virus logre entrar al sistema.
Desgraciadamente, la prevención es extraordinariamente difícil debido a
que un virus puede ser parte de cualquier programa fuera del sistema.
Por esto, al menos que uno este dispuesto a escribir todos sus propios
programas de sistema, uno es vulnerable.
La mayoría de las infecciones virales inician con un disco desde el cual
se copian programas a la máquina. Muchos de estos son discos que
tienen juegos o utilidades sencillas pero provechosas que los empleados
obtienen para sus computadores de hogar y entonces las traen para sus
computadores de oficina. Algunos, increíblemente, están presentes en
discos de aplicaciones hechas en empresas. Únicamente una pequeña
fracción de las infecciones comienza a través de conexiones de red.
Nuevamente, típicamente, un empleado descargará un juego o
aplicación aparentemente útil, únicamente para descubrir más tarde que
esta contenía un virus.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
135
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 136 de
167
Tipos de Virus.
Ha existido una continua carrera de armas entre los escritores de virus y
escritores de software antivirus desde la primera aparición de estos. Así
como mecanismos efectivos de prevención han sido desarrollados para
los tipos de virus existentes, nuevos tipos han sido desarrollados. Las
siguientes características son una de las más significativas de los tipos
de virus:
Virus Parásitos: es la forma más tradicional y común de virus. Un virus
parásito se adjunta a sí mismo a archivos ejecutables, y se duplica
cuando el programa infectado es ejecutado, encontrando otros archivos
ejecutables que infectar.
Virus Residentes-en-Memoria: Se alojan en la memoria principal como
parte de un programa del sistema residente. De allí en adelante, el virus
infecta cada programa que se ejecute.
Virus de Sector de Arranque: Infecta los registros de arranque maestros
o registros de arranque y se expande cuando el sistema es arrancado
desde el disco que contiene el virus.
Virus Stealth: una forma de virus específicamente diseñada para
esconderse a sí mismo de la detección por medio de software antivirus.
Virus Polimórfico: un virus que muta con cada infección, haciendo la
detección del virus por “firma” imposible.
Macro Virus.
En estos años, el número de virus encontrados en sitos corporativos ha
crecido dramáticamente. Prácticamente todo este crecimiento es debido
a la proliferación de los nuevos tipos de virus: los macro virus. Según la
Agencia Nacional de Seguridad de Computadores (NCSA), los macro
virus crean ahora las dos terceras partes de todos los virus de
computadoras.
Los macro virus son particularmente amenazantes por un número de
razones:
Un macro virus es independiente de plataforma.
Los macro virus infectan documentos, no porciones de código
ejecutable.
Los macro virus son de fácil propagación.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
136
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 137 de
167
Los macro virus toman ventaja de una característica encontrada en
Word y otras aplicaciones de Office tal como Microsoft Excel, llamada la
macro. En esencia, un macro virus es un programa ejecutable embebido
en un documento de Word u otro tipo de archivo. Típicamente, los
usuarios emplean macros para automatizar tareas repetitivas y evitar el
continuo teclado. El lenguaje macro es usualmente una forma del
lenguaje de programación Basic. Un usuario puede definir una secuencia
de combinaciones de teclas en una macro y configurarla de manera tal
que la macro sea invocada por medio de una tecla de función o una
combinación corta de teclas.
Lo que hace posible crear un macro virus es la macro de auto-ejecución.
Esta es una macro que es invocada automáticamente sin entrada
especifica del usuario. Eventos comunes de auto-ejecución son la
apertura de archivo, cierre de archivo e inicio de una aplicación.
Una vez que la macro está corriendo, esta puede hacer copias de sí
misma a otros documentos, borrar archivos, y causar otros tipos de
daños al sistema de usuario. En Microsoft Word existen tres tipos de
macros de auto-ejecución:
Auto-ejecuta: si una macro llamada AutoExec está en la plantilla
“normal.dot” o en una plantilla global almacenada en el directorio de
arranque de Word, esta se ejecuta cuando sea que se inicie Word.
Auto-macro: una auto-macro se ejecuta cuando un evento definido
ocurre, tal como la apertura o cierre de un documento, la creación de un
nuevo documento, o a la salida de Word.
Macro de Comandos: si una macro en el archivo macro global o una
macro adjunta a un documento tienen nombre de un comando existente
en Word, esta se ejecuta en cualquier momento que el usuario ejecute
este comando.
Una técnica común para expandir un macro virus es de la siguiente
forma. Una auto-macro o macro de comandos adjunta a un documento
Word que es introducido dentro del sistema por e-mail o por
transferencia de discos. En algún punto después del que el documento
es abierto, la macro se ejecuta. La macro se copia a sí misma al archivo
de la macro global. Cuando la próxima sesión de Word se abra la macro
global se ejecuta.
Cuando esta macro se ejecuta se puede duplicar a sí misma y causar
daño.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
137
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 138 de
167
Virus de e-mail.
Un desarrollo más reciente en el software malicioso son los virus de email. El primer virus de e-mail de expansión rápida, como es Melissa,
utilizó una macro embebida en Microsoft Word como adjunto. Si el
receptor abre el adjunto del e-mail la macro se activa. Entonces
El virus de e-mail se envía a sí mismo a todos en la lista de correos del
paquete de e-mail del usuario.
El virus hace daño local.
A finales de 1999 una versión más poderosa del virus de e-mail
apareció. Esta nueva versión puede ser activada simplemente abriendo
el e-mail que contiene el virus en lugar de abrir el adjunto. El virus usa
scripts del lenguaje Visual Basic soportados por el paquete de e-mail.
Por esto vemos una nueva generación de malware que llega vía e-mail y
usa características del software e-mail para duplicarse a sí mismo a
través de la Internet. El virus se propaga a sí mismo tan pronto es
activado (ya sea por la apertura de un archivo adjunto del e-mail o por
la apertura del e-mail) a todas las direcciones de correo conocidas por el
host infectado. Como resultado, mientras que los virus acostumbraban a
tomar meses y años en propagarse, ahora lo hacen en horas. Esto
dificulta al software antivirus responder antes de que la mayor parte del
daño sea hecho.
Gusanos.
Un virus de e-mail tiene algunas de las características de los gusanos,
debido a que este se propaga a sí mismo de sistema a sistema. Sin
embargo aun podemos clasificarlo como un virus debido a que este
requiere que un humano lo mueva. Un gusano activamente busca más
maquinas para infectar y cada máquina que es infectada sirve como una
plataforma de lanzamiento automático para ataques en otras máquinas.
Los programas gusanos de red usan las conexiones de red para
expandirse de sistema a sistema. Una vez activado en un sistema, un
gusano de red puede comportarse como un virus de computador o
bacteria, o este podría implantar caballos de Troya o llevar a cabo un
número de acciones destructivas.
Para duplicarse a sí mismo, un gusano de red usa algún tipo de vehículo
de red. Entre los ejemplos están:
Instalaciones de correo electrónico: un gusano manda una copia de sí
mismo a otros sistemas.
Capacidad de ejecución remota: un gusano ejecuta una copia de sí
mismo en otro sistema.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
138
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 139 de
167
Capacidad de registro remoto: un gusano se registra en un sistema
remoto como un usuario y entonces usa comandos para copiarse a sí
mismo en un sistema remoto.
La nueva copia del programa gusano se corre en el programa remoto en
donde, además de cualquier función que lleve a cabo en ese sistema,
continúe expandiéndose de la misma forma.
Un gusano de red presenta las mismas características de un virus de
computador: una fase durmiente, una fase de propagación, una fase de
activación y una fase de activación. La fase de propagación
generalmente lleva a cabo las siguientes funciones:
Busca otros sistemas para infectar examinando las tablas de host o
depositarios similares de direcciones de sistemas remotos.
Establece una conexión con un sistema remoto.
Copiarse a sí mismo al sistema remoto y hacer que la copia se ejecute.
El gusano de red también puede intentar determinar si un sistema ha
sido infectado previamente antes de hacer una copia de sí mismo a ese
sistema. En un sistema de multiprogramación, este también puede
distinguir su presencia nombrándose como un proceso del sistema o
usando algún otro nombre que puede no ser notado por el operador del
sistema.
Como con los virus, los gusanos de red son difíciles de contrarrestar. Sin
embargo, ambos, las medidas de seguridad de red y de sistemas
simples, están diseñadas e implementadas adecuadamente, minimizan
la amenaza de los gusanos.
Antivirus
Los antivirus son programas cuya función es detectar y eliminar virus
informáticos y otros programas maliciosos (a veces denominados
malware).
Básicamente, un antivirus compara el código de cada archivo con una
base de datos de los códigos de los virus conocidos, por lo que es
importante actualizarla periódicamente a fin de evitar que un virus
nuevo no sea detectado. También se les ha agregado funciones
avanzadas, como la búsqueda de comportamientos típicos de virus
(técnica conocida como heurística) o la verificación contra virus en redes
de computadores.
Normalmente un antivirus tienen un componente que se carga en
memoria y permanece en ella para verificar todos los archivos abiertos,
creados, modificados y ejecutados en tiempo real. Es muy común que
tengan componentes que revisen los adjuntos de los correos
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
139
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 140 de
167
electrónicos salientes y entrantes, así como los scripts y programas que
pueden ejecutarse en un navegador web (ActiveX, Java, JavaScript).
MÓDULO # 14: Controladores (Drivers)
Que es un DRIVER o CONTROLADOR?
Un driver técnicamente es un software o programa que sirve de
intermediario entre un dispositivo de hardware y el sistema operativo.
Su finalidad es la de permitir extraer el máximo de las funcionalidades
del dispositivo para el cual ha sido diseñado.
Dada la existencia de una infinidad de dispositivos hardware con su
consecuente innovación, el driver se crea además para que funcione con
un sistema operativo especifico - para decirlo en palabras simples: los
controladores se instalan según el Windows que utiliza tu PC -. Esto
significa que si cambias de Sistema operativo en tu computadora,
tendrás que verificar si necesitas también actualizar los drivers, para
obtener el máximo rendimiento. Por otra parte, el driver apunta a un
modelo especifico del dispositivo. Por ejemplo: no se puede utilizar el
mismo driver para controlar una impresora HP 3320 y una HP 840C.
Cuando y como cambiar los DRIVERS.
Es importante determinar cuando y que drivers necesita nuestro PC.
Pero hay que hacerlo con cuidado, pues una instalación de drivers
inadecuada puede dejar inoperable un dispositivo. He aquí una guía:
a). Necesitas instalar drivers cuando instalas el Sistema operativo
Windows. Dado que este sistema coloca drivers por default, algunos
dispositivos necesitan ser reinstalados. Los reconoces porque el mismo
sistema los marca con un signo de interrogación, con color amarillo:
Inicio, Configuración, Panel de control, Administrador de dispositivos.
Para colocar los drivers correctos se necesita eliminarlos y hacer click
en el botón 'Actualizar'. Pero hay que hacerlo solo si tenemos a la mano
los drivers correctos, pues podríamos empeorar la situación haciendo
que los dispositivos dejen de funcionar.
b). Necesitamos instalar drivers cuando cambiamos de hardware. O sea
cuando por ejemplo cambiamos la placa modem fax, la impresora, la
placa de video. En estos casos el vendedor debe entregar los drivers.
c). Cuando, bien informado te enteras que el fabricante ha creado
nuevos drivers compatibles con tu modelo de dispositivo y con tu
sistema operativo, para mejorar el rendimiento. Entonces el driver se
baja del sitio Web del fabricante. Esto se llama actualización o mejora
del controlador.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
140
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 141 de
167
Donde y como conseguir los DRIVERS.
Inicialmente, los drivers se obtienen de las casas fabricantes de
hardware. Lo primero que hay que hacer es identificar la MARCA del
dispositivo para el que se busca el driver. Una forma es entrando al
'Administrador de dispositivos' de Windows. La otra - que a veces es
obligada - es abriendo la máquina para retirar del slot la placa del
dispositivo a fin de ver la marca y modelo.
La siguiente fase es la de obtener el controlador. La primera opción
debería ser con el vendedor. La segunda podría ser con el soporte
tecnico de confianza y la tercera es utilizar Internet. Si la opción de
buscar el controlador por Internet es la mas conveniente, la primera
opción debería ser buscar en el sitio web de los fabricantes. La
segunda, en los sitios que ofrecen controladores gratuitos, la tercera en
los foros públicos gratuitos y la cuarta en un servicio pago de suministro
de controladores.
Para ubicar sitios gratuitos, puedes utilizar en la opción de búsqueda del
navegador, la palabra 'driver'. Para buscar en Foros, ubica estas
comunidades bajo el tema 'Foros de hardware'. En algunos tendrás que
registrarte para acceder a las ayudas de los miembros. Los servicios
pagados se justifican si tu interés o necesidad es de tipo comercial,
como para apoyar tu clientela o departamento de informática.
Por último es importante aclarar que los CONTROLADORES no se
deben 'actualizar' por que sí. Igual que como sucede con el software de
aplicación, no toda versión actualizada de un driver funcionará con el
dispositivo en cuestión. Hay que tener en cuenta que el código de un
Driver, se crea en concordancia con la electrónica de los circuitos y una
mala correspondencia puede 'enloquecer' al PC. También es importante
tener en cuenta que el driver a utilizarse debe haber sido creado para
trabajar con el sistema operativo del PC.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
141
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 142 de
167
ANEXO 1
Definiciones - Glosario
PC XT: Computador personal que sucedió a la primera versión del
computador personal creada por IBM, el IBM PC.
PC AT: Computador personal que sucedió al PC XT y que definió muchos
estándares, entre ellos el estándar ISA.
Bit – Byte : Un bit es un dígito binario, es decir un número que sólo
puede tomar dos valores (0 o 1). Un Byte es un conjunto de 8 bits
ordenados, a veces se traduce como octeto.
Mb – MB: La M es el prefijo usado para indicar “millones de“, unido a
una “b” minúscula traduce Megabits, es decir un millón de Bits, pero al
lado de una B mayúscula traduce un millón de Bytes
Mb/s – MB/s: Es la forma de indicar cantidad de información que es
transmitida por unidad de tiempo, hace referencia a la cantidad de
millones de bits (Mb/s) o de Bytes (MB/s) que son transmitidos por
unidad de tiempo.
Troughput: Es el indicador de desempeño en cantidad de información
transmitida por unidad de tiempo, es la característica que se expresa en
las unidades descritas anteriormente.
Intel: Es una empresa frabicante de procesadores, chipsets y
motherboards. El procesador más conocido de este fabricante es el
Pentium.
IBM: International Business Machines Corporation es la empresa que
diseñó el computador que se considera precursor de los computadores
actuales.
Tarjeta de computador: Es un circuito impreso con componentes
electrónicos diseñado para ser insertado en un zócalo de computador
que cumple una tarea específica.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
142
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 143 de
167
Tarjeta controladora: Es una tarjeta de computador que se encarga
de gestionar la comunicación con el disco duro, la unidad de floppy y
puertos de juegos, serie y paralelo.
CPU: Se denomina CPU (siglas de Central Processing Unit) o Unidad
Central de Proceso (UCP) a la unidad donde se ejecutan las
instrucciones de los programas y se controla el funcionamiento de los
distintos componentes del ordenador. Suele estar integrada en un chip
denominado microprocesador.
BUS: es un subsistema que transfiere datos o electricidad entre
componentes del ordenador dentro de un ordenador o entre
ordenadores. A diferencia de una conexión punto-a-punto, un bus puede
conectar mediante lógica varios periféricos utilizando el mismo conjunto
de cables. También se define como el conjunto de conductores eléctricos
en forma de pistas metálicas impresas sobre la tarjeta madre del
computador, por donde circulan las señales que corresponden a los
datos binarios del lenguaje máquina con que opera el Microprocesador.
Hay tres clases de buses: Bus de Datos, Bus de Direcciones y Bus de
Control.
BUS DE DATOS: Mueve los datos entre los dispositivos del hardware y
son gobernadas por varios dispositivos y métodos, de los cuales el
controlador es uno de los principales. Su trabajo equivale, simplificando
mucho el asunto, a una central de semáforos para el tráfico en las calles
de una ciudad.
BUS DE DIRECCIONES: está vinculado al bloque de Control de la CPU
para tomar y colocar datos en el Sub-sistema de Memoria durante la
ejecución de los procesos de cómputo.
BUS DE CONTROL: transporta señales de estado de las operaciones
efectuadas por el CPU con las demás unidades.
BUS ISA: El bus ISA (Industry Standard Architecture) es un bus
creado por IBM en 1980. La versión original era de 8 bits y funcionaba a
4,77 MHz, la misma velocidad que el procesador Intel 8088 empleado en
el IBM PC. Posteriormente, cuando se lanzaron nuevos PCs con el
procesador Intel 80286, se creó una extensión de 16 bits y se aumentó
su velocidad a 8 MHz. Esta extensión es compatible de forma
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
143
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 144 de
167
descendente con el bus ISA de 8 bits. El troughput máximo del bus ISA
de 16 bits es de 16 MBytes/segundo. Este ancho de banda es
insuficiente para las necesidades actuales, tales como tarjetas de vídeo
de alta resolución, por lo que el bus ISA no se emplea en los PCs
modernos, en los que ha sido substituido por el bus PCI.
Slots: Traducido como ranura, es una canal estrecha y larga de material
plástico y contactos metálicos internos que sirve para ensamblar
tarjetas de computador y sirven como guías de estas piezas removibles.
PS/2: línea de equipos diseñada por IBM hacia 1987 que eran
legalmente muy difíciles de copiar por su gran detalle de patentes.
BUS MCA: Bus Micro Channel Architecture (Arquitectura micro canal)
creado por IBM como parte de los PS/2, tenía 32 bits y velocidades de
10MHz.
BUS EISA: Es una arquitectura de bus para ordenadores compatibles
con el IBM PC. Fue anunciado a finales de 1988 y desarrollado por el
llamado "Grupo de los Nueve" (AST, Compaq, Epson, Hewlett-Packard,
NEC Corporation, Olivetti, Tandy, Wyse y Zenith), vendedores de
ordenadores clónicos como respuesta al uso por parte de IBM de su
arquitectura propietaria MicroChannel (MCA) en su serie PS/2. Tuvo un
uso limitado en ordenadores personales 386 e 486 hasta mediados de
los años 1990, cuando fue reemplazado por los buses locales tales como
el bus local VESA y el PCI. Sus características eran: 32 bit, ancho de
banda de 33 MB/s y frecuencia de reloj 8 MHz.
Clon: Cuando IBM sacó su ordenador personal (PC) en 1981, otras
fabricantes como Compaq decidieron sacar un clon de este ordenador
mediante una reconstrucción legal realizada con la documentación del
ordenador o retroingeniería. Como la mayoría de los componentes con la
excepción del BIOS del ordenador estaban a disposición del público,
todo lo que los otros fabricantes tenía que hacer era aplicar un proceso
de retroingeniería al BIOS. El resultado era que te llevabas un ordenador
mejor que los ordenadores a los que imitaba por el mismo precio. El
término “clon de PC” cayó en desuso en los noventa: ahora se dice
simplemente PC (ordenador personal) u ordenador Intel.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
144
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 145 de
167
OEM: (abreviatura del inglés Original Equipment Manufacturer, en
español sería Fabricante Original de Equipo). Empresas o personas que
adquieren dispositivos al por mayor para ensamblar computadoras o
equipos de forma personalizada que presentan con su propio nombre.
Reloj (velocidad de reloj) La frecuencia de reloj indica la velocidad
a la que un ordenador realiza sus operaciones más básicas, como sumar
dos números o transferir el valor de un registro a otro. Se mide en ciclos
por segundo (hercios). Los diferentes circuitos integrados de un
ordenador pueden funcionar a diferentes frecuencias de reloj, por lo que
cuando se usa el termino frecuencia de reloj aplicado a un ordenador,
suele sobreentenderse que se refiere la velocidad de funcionamiento del
procesador principal.
KHz - MHz - GHz Un Megahercio (MHz) equivale a 106 hercios (1
millón), unidad de medida de frecuencia. Kilohercio (Khz), equivalente a
103 Hz (1000) Gigahercio (Ghz), equivalente a 109 Hz (1000 millones).
El MHz Se utilizó mucho en el campo de la informática (sobre todo en el
período de 1974-2000) para referirse a la velocidad de procesamiento
de un microprocesador, ya que la velocidad de reloj estaba en ese orden
de magnitud. Hoy sin embargo es más utilizada su medida en
gigahercios.
BUS VESA El bus VESA es un diseño de bus de datos para ordenadores
personales, utilizado sobre todo en equipos diseñados para el chip Intel
80486. Trabajaba lado a lado con el bus ISA, como consecuencia de la
insuficiencia de flujo de datos de éste. Su estructura consistia en un
extension del ISA de 16 bits. Las targetas de expansion de este tipo
eran enormes, lo que, junto a la aparicion del bus PCI, mucho mas
rápido en velocidad de reloj, a su menor longitud y su versatilidad,
hicieron desaparecer al VESA.
BUS PCI La interconexión de componentes periféricos [Peripheral
Component Interconnect (PCI)] es un bus de computadora estándar
para conectar dispositivos periféricos a la tarjeta madre de la
computadora (llamado bus local). Estos dispositivos pueden ser circuitos
integrados ajustados en la misma tarjeta madre (llamado dispositivos
planares en la especificación PCI) o tarjetas de expansión que se ajustan
en enchufes. Es común en PCs, donde ha desplazado el ISA como el bus
estándar, pero es también usado en otro tipo de computadoras. A
diferencia de los buses ISA, el bus PCI permite configuración dinámica
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
145
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 146 de
167
de un dispositivo periférico. En el tiempo de arranque de la máquina las
tarjetas PCI y el sistema BIOS interactúan y negocian los recursos que
son pedidos por la tarjeta PCI. Esto permite asignación de IRQs y
direcciones del puerto por medio de un proceso dinámico diferente del
bus ISA donde los IRQs tienen que ser configurados manualmente
usando jumpers externos. A parte de esto, el bus PCI proporciona una
descripción detallada de todos los dispositivos PCI conectados a través
del espacio de configuración PCI.
Periférico todo dispositivo que se conecta a la computadora. Por
ejemplo: teclado, monitor, mouse, impresora, escáner, etcétera
BUS USB El Bus de Serie Universal (USB -de sus siglas en inglés
Universal Serial Bus) provee un estándar de bus serie para conectar
dispositivos a una computadora (usualmente a una PC). Un sistema USB
tiene un diseño asimétrico, que consiste en un solo servidor y múltiples
dispositivos conectados en una estructura de árbol utilizando
dispositivos hub especiales. Se pueden conectar hasta 127 dispositivos a
un solo servidor, pero la suma debe incluir a los hubs también, así que
el total de dispositivos realmente usables disminuye un poco. El
estándar incluye la transmisión de energía eléctrica al dispositivo
conectado. Algunos dispositivos requieren potencia mínima, así que
varios pueden ser conectados sin necesitar fuentes de alimentación
extra. La mayoría de los hubs incluyen fuentes de alimentación que
brindan energía a los dispositivos conectados a ellos, pero algunos
dispositivos gastan tanta energía que necesitan su propia fuente de
alimentación. Los hubs con fuente de alimentación pueden
proporcionarle corriente eléctrica a otros dispositivos sin quitarle
corriente al resto de la conexión (dentro de ciertos límites). El diseño del
USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas
para poner en los puertos bus ISA o PCI, y mejorar las capacidades
plug-and-play permitiendo a esos dispositivos ser conectados o
deconectados al sistema sin necesidad de reiniciar. Cuando un nuevo
dispositivo es conectado, el servidor lo enumera y agrega el software
necesario para poder funcionar.
Puerto En computación, un puerto es una forma genérica de denominar
a una interfaz por la cual diferentes tipos de datos pueden ser enviados
y recibidos. Dicha interfaz puede ser física, o puede ser a nivel software
(por ej: los puertos que permiten la transmisión de datos entre
diferentes computadoras). Un puerto hardware permite acoplar a un
sistema físico un conector o cable. Por ejemplo, la mayoría de las
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
146
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 147 de
167
computadoras personales tienen un puerto para el teclado y uno para el
mouse, entre otros, en el cual dichos periféricos son conectados. Los
puertos hardware pueden casi siempre dividirse en dos grandes grupos:
los que pueden enviar y recibir sólo un bit a la vez a través de un cable,
llamados puertos serie, y los que pueden enviar varios bits a la vez
usando un conjunto de cables, denominados puertos paralelo. Un
puerto de red es una interfaz para comunicarse con un programa a
través de una red. Los puertos de red suelen ser numerados y una cierta
implementación de protocolo de transmisión de red (como TCP o UDP)
asigna alguno de esos números de puerto a la información que envía; la
implementación del protocolo en el destino utilizará ese número para
decidir a que programa entregar los datos recibidos. En TCP y UDP la
combinación de un número de puerto y una dirección de red (número
IP) suele llamarse socket.
Puerto Serie es un interfaz de comunicaciones entre ordenadores y
periféricos en donde la información es transmitida bit a bit enviando un
solo bit a la vez. (En contraste con el puerto paralelo que envía varios
bytes a la vez). El puerto serie por excelencia es el RS-232 que utiliza
cableado simple desde 3 hilos hasta 25 y que conecta ordenadores o
microcontroladores a todo tipo de periféricos, desde terminales a
impresoras y modems pasando por ratones. El RS-232 original tenía un
conector tipo D de 25 pines, sin embargo la mayoría de dichos pines no
se utilizaban, por lo que IBM incorporó desde su PS/2 un conector más
pequeño de sólamente 9 pines que es el que actualmente se utiliza.
Puerto Paralelo es un interfaz entre un ordenador y un periférico cuya
principal característica es que los bits de datos viajan juntos enviando
un byte completo o más a la vez. Es decir, se implementa un cable o
una vía física para cada bit de datos formando un bus. Además habrá
una serie de bits de control en vias aparte que irán en ambos sentidos
por caminos distintos. El puerto paralelo más conocido es el puerto de
impresora que destaca por su sencillez y que transmite 8 bits en un solo
sentido. Otros puertos paralelos son el SCSI o el ATA.
INTERFAZ conexión física y funcional entre dos aparatos o sistemas
independientes.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
147
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 148 de
167
MODEM Módem es un acrónimo de las palabras
modulador/demodulador). Un módem es un modulador y demodulador
de datos que participa en una comunicación como ETCD. Su uso mas
común y conocido es en transmisiones de datos por vía telefónica. Como
los ordenadores procesan datos de forma digital y las líneas telefónicas
de la red básica sólo transmiten datos de forma analógica, los módem lo
que hacen es transformar mediante diferentes técnicas las señales
digitales en analógicas y viceversa. Hay distintos tipos de módem en
función de la velocidad de transmisión que alcancen: 14.400, 28.800,
36.600 y 56.600 bps son las velocidades más comunes actualmente.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan el
espectro situado por encima de la banda vocal (300 - 3400 Hz) del cable
telefónico, y permiten alcanzar velocidades mucho mayores que las de
los módems analógicos o tradicionales. También poseen otras
cualidades, como la posibilidad de establecer una comunicación
telefónica por voz al mismo tiempo que se envían y reciben datos.
ETCD Equipo terminal del circuito de datos. Un ETCD es todo dispositivo
que participa en la comunicación entre dos dispositivos pero que no es
receptor final ni emisor original de los datos que forman parte de esa
comunicación.
BAUDIO es el número de cambios de estado que una señal puede tener
en un período dado de tiempo. Originariamente se utilizó para medir la
velocidad de las transmisiones telegráficas. Esta medida tomó su
nombre del ingeniero francés Jean Maurice Baudot, que fue el primero
en realizar este tipo de mediciones.
BUS IEEE 1394 El IEEE 1394 o FireWire es un estándar
multiplataforma para entrada/salida de datos en serie a gran velocidad.
Suele utilizarse para la interconexión de dispositivos digitales como
cámaras digitales y videocámaras a ordenadores.
BUS CNR del ingles Communication and Network Riser. Se trata de una
ranura de expansión en la placa madre para dispositivos de
comunicaciones como modems, tarjetas Lan o USB. Fue introducido en
Febrero del 2000 por Intel en sus placas para procesadores Pentium y
se trataba de un diseño propietario por lo que no se extendió mas alla
de las placas que incluían los chipsets de Intel. Adolecía de los mismos
problemas de recursos de los dispositivos diseñados para ranura AMR.
Actualmente no se incluye en las placas.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
148
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 149 de
167
Fuente de voltaje Una fuente de voltaje o de alimentación es un
dispositivo que convierte la corriente alterna de la red eléctrica en
corriente continua a una tensión adecuada para aplicación que se le
vaya a dar. Puede tener una o varias salidas de corriente continua
regulables o no, una corriente fija de 5V es habitual.
Las fuentes regulables pueden variar la tensión y la corriente eléctrica
máxima que va a admitir el circuito, aunque la corriente suministrada en
un momento dado viene determinada por las necesidades de la misma
del circuito que está siendo alimentado.
AT – ATX Contrasta la forma de identificar dos tipos de Fuentes de
alimentación que se diferencian en el conector que utilizan y el tipo de
apagado que realizan (hardware - software). Igualmente se utiliza para
identificar dos conjuntos de dimensiones físicas diferentes de
motherboards, a través de lo que se conoce como el factor de forma.
Pin Punto de conexión, se refiere a el punto de contacto físico entre un
cable y un conector o cualquier terminal que conduzca alguna señal
eléctrica.
Pinout Termino anglosajón que, en traducción libre, significa patillaje, o
más correctamente asignacion de patillaje. Coloquialmente es decir para
que sirve cada uno de los puntos de conexion, patillas o similar de una
clavija.
Motherboard La placa base, placa madre o tarjeta madre (en
inglés motherboard) es la tarjeta de circuitos impresos que contiene,
normalmente: el microprocesador, circuitos electrónicos de soporte,
ranuras para conectar parte o toda la RAM del sistema, la ROM y
ranuras especiales (slots) que permiten la conexión de tarjetas
adaptadoras adicionales. Estas tarjetas suelen realizar funciones de
control de periféricos tales como monitores, impresoras, unidades de
disco, etc.
BIOS - ROM BIOS Contiene el firmware presente en ordenadores IBM
PC, que contiene la funcionalidad básica para el funcionamiento del
ordenador y rutinas de control de los dispositivos de entrada y salida. El
setup es el programa de configuración y es almacenado en un chip de
ROM o Flash, situado en la placa base del ordenador. Al encender la
computadora, el programa que contiene la ROM BIOS se carga
automáticamente en la memoria principal y se ejecuta por el procesador
(aunque en algunos casos el procesador ejecute la BIOS directamente
desde la ROM), cuando realiza una rutina de verificación e inicialización
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
149
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 150 de
167
de los componentes presentes en la computadora, a través de un
proceso denominado POST (Power On Self Test). Al finalizar esta fase,
busca el código de inicio del sistema operativo (bootstrap) en algunos
de los dispositivos de memoria secundaria presentes, lo carga en
memoria y transfiere el control de la computadora a éste.
Firmware o Programación en Firme, es un bloque de instrucciones de
programa para propósitos específicos, grabado en una memoria tipo
ROM, que establece la lógica de más bajo nivel que controla los circuitos
electrónicos de un dispositivo de cualquier tipo. Al estar integrado en la
electrónica del dispositivo es en parte hardware, pero también es
software, ya que proporciona lógica y se dispone en algún tipo de
lenguaje de programación. Funcionalmente, el firmware es el
intermediario (interfaz) entre las ordenes externas que recibe el
dispositivo y su electrónica, ya que es el encargado de controlar a ésta
última para ejecutar correctamente dichas órdenes externas.
Encontramos Firmware en memorias ROM de los sistemas de diversos
dispositivos periféricos, como en monitores de video, unidades de disco,
impresoras, etc., pero también en los propios microprocesadores, chips
de memoria principal y en general en cualquier circuito integrado.
Muchos de los Firmwares almacenados en ROM están protegidos por
Derechos de Autor. El programa contenido en la BIOS de un ordenador
es un firmware cuyo propósito es activar una máquina desde su
encendido y preparar el entorno para la instalación de un Sistema
Operativo complejo, así como responder a otros eventos externos
(botones de pulsación humana) y al intercambio de órdenes entre
distintos componentes del ordenador. En un microprocesador el
firmware es el que recibe las instrucciones de los programas y las
ejecuta en la compleja circuitería del mismo, emitiendo órdenes a otros
dispositivos del sistema.
Bootstrap es el término en inglés que se utiliza para nombrar a un lazo
hecho de cuero o de tela recia colocado atrás de las grandes botas de
calzar. Tirar fuertemente del bootstrap permite calzar la bota al pie. Este
término, aplicado a un módulo del BIOS llamado Código Maestro de
Inicialización, da la idea de su función, ya que ese código va a "halar"
desde un disco inicializable la instalación del sistema operativo complejo
que gobernará al ordenador. También llamado "Cargador de
Inicialización", Bootstrap Loader.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
150
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 151 de
167
Chipset Por circuito integrado auxiliar se designa al circuito
integrado que es periférico a un sistema pero necesario para el
funcionamiento del mismo. La mayoría de los sistemas necesitan más de
un circuito integrado auxiliar; el conjunto de circuitos integrados
auxiliares necesarios por un sistema para realizar una tarea suele ser
conocido como chipset, cuya traducción literal del inglés significa
conjunto de circuitos integrados. El término chipset se suele emplear en
la actualidad cuando se habla sobre las placas base de los IBM PCs. La
configuración habitual es usar dos circuitos integrados auxiliares al
procesador principal, llamados puente norte (conocido como
NorthBridge) y puente sur (conocido como SouthBridge). El conjunto de
circuitos integrados en los ordenadores de sobremesa actuales que la
componen se conocen como chipset que se compone de NorthBridge y
SouthBridge. El NorthBridge controla las funciones de acceso hacia y
entre el microprocesador, la memoria RAM, el puerto grafico AGP, y las
comunicaciones con el SouthBrigde. El SouthBridge controla los
dispositivos asociados como son la controladora de discos IDE, puertos
USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR,
puertos infrarrojos, disquetera, Lan y una larga lista de todos los
elementos que podamos imaginar integrados en la placa madre.
FSB (de las iniciales en Inglés del Front Side BUS.) Es el bus que
comunica al microprocesador con el northbridge. Además, el northbridge
se comunica directamente con la memoria a través del bus de memoria.
DMA El Acceso directo a memoria (DMA, del inglés Direct Memory
Access) permite a cierto tipo de componentes de ordenador acceder a la
memoria del sistema para leer y/o escribir independientemente de la
CPU principal. Muchos sistemas hardware utilizan DMA, incluyendo
controladores de unidades de disco, tarjetas gráficas, y tarjetas de
sonido. DMA es una característica esencial en todos los ordenadores
modernos, ya que permite a dispositivos de diferentes velocidades
comunicarse sin someter a la CPU a una carga masiva de interrupciones.
Una transferencia DMA consiste principalmente en copiar un bloque de
memoria de un dispositivo a otro. En lugar de que la CPU inicie la
transferencia, la transferencia se lleva a cabo por el controlador DMA.
Un ejemplo típico es mover un bloque de memoria desde una memoria
externa a una interna más rápida. Tal operación no ocupa el procesador
y como resultado puede ser planificado para efectuar otras tareas. Las
transferencias DMA son esenciales para aumentar el rendimiento de
aplicaciones que requieran muchos recursos.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
151
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 152 de
167
BUS AGP (Del inglés Accelerated/Advance Graphics Port, puerto de
gráficos acelerado/avanzado). Es un bus desarrollado por Intel en 1996
como solución a los cuellos de botella que se producían en las tarjetas
gráficas que usaban el bus PCI. El diseño parte de las especificaciones
PCI 2.1. El bus AGP es de 32 bit como PCI pero cuenta con notables
diferencias como 8 canales mas adicionales para acceso a la memoria
RAM. Además puede acceder directamente a esta a través del
NorthBrigde pudiendo emular así memoria de vídeo en la RAM. La
velocidad del bus es de 66 MHz. El bus AGP cuenta con diferentes
modos de funcionamiento:
AGP 1X: velocidad 66 MHz con una tasa de transferencia de 264
MB/s y funcionando a un voltaje de 3,3V.
AGP 2X: velocidad 133 MHz con una tasa de transferencia de 528
MB/s y funcionando a un voltaje de 3,3V.
AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1
GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a
los diseños de las tarjetas gráficas.
AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2
GB/s y funcionando a un voltaje de 0,7V o 1,5V.
Estas tasas de transferencias se consiguen aprovechando los ciclos de
reloj del bus mediante un multiplicador pero sin modificarlos
físicamente.
El bus AGP actualmente se utiliza exclusivamente para conectar tarjetas
gráficas, por lo que sólo suele haber una ranura. Dicha ranura mide
unos 8 cm y se encuentra a un lado de las ranuras PCI.
JUMPER Elemento para interconectar dos terminales de manera
temporal sin tener que efectuar una operacion que requiera herramienta
adicional, dicha unión de terminales cierran el circuito eléctrico del que
forma parte. Una de sus aplicaciones más habituales se encuentra en
unidades IDE (discos duros, lectores y grabadoras de CD's y DVD's)
dónde se emplean para definir entre maestro y esclavo.
RAM es el acrónimo inglés de Random-Access Memory (memoria de
acceso aleatorio). Su denominación surge en contraposición a las
denominadas memorias de acceso secuencial. Debido a que en los
comienzos de la computación las memorias principales (o primarias) de
los ordenadores eran siempre de tipo RAM y las memorias secundarias
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
152
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 153 de
167
(o masivas) eran de acceso secuencial (cintas o tarjetas perforadas), es
frecuente que se hable de memoria RAM para hacer referencia a la
memoria principal de un ordenador. Memoria de semiconductor en la
que se puede tanto leer como escribir. Se trata de una memoria volátil,
es decir, pierde su contenido al desconectar la energía eléctrica. Se
utilizan normalmente como memorias temporales para almacenar
resultados intermedios y datos similares no permanentes.
SCSI del acrónimo inglés Small Computer System Interface es una
interfaz estándar para la transferencia de datos entre periféricos en el
bus del ordenador (computadora). Para montar un dispositivo SCSI en
un ordenador es necesario que tanto el dispositivo como el la placa
madre (motherboard / mainboard) dispongan de una controladora SCSI.
Es habitual que el dispositivo venga con un controlador SCSI pero no
siempre es así, sobre todo en los primeros dispositivos. SCSI se utiliza
muy habitualmente en los discos duros y los dispositivos de
almacenamiento sobre cintas, pero también interconecta una amplia
gama de dispositivos, incluyendo los scanners, unidades CD-ROM,
grabadoras de CD, y unidades DVD. De hecho, el estándar SCSI entero
promueve la independencia de dispositivos, lo que significa que
teóricamente cualquier cosa puede ser hecha SCSI (incluso existen
impresoras que utilizan SCSI). En el pasado, SCSI era muy popular
entre todas las clases de ordenadores (computadoras). SCSI sigue
siendo popular en lugares de trabajo de alto rendimiento, servidores, y
periféricos high-end. Los ordenadores de sobremesa y los portátiles
(notebook) utilizan habitualmente los interfaces más lentos de ATA/IDE
para los discos duros y el USB (el USB utiliza un conjunto de comandos
SCSI para algunas operaciones) a causa de la diferencia de coste entre
estos dispositivos. También en SCSI se esta preparando un sistema en
serie, que además es compatible con SATA. Y por lo tanto se podrán
conectar discos SATA en una controladora SAS (Serial Attached SCSI).
BUS AMR AMR del ingles Audio Modem Riser. Ranura de expansión en
la placa madre para dispositivos de audio como tarjetas de sonido o
modems lanzada en 1998, cuenta con 16 pines y es parte del estándar
de audio AC97 aun vigente en nuestros días. En un principio se diseño
como ranura de expansión para dispositivos económicos de audio o
comunicaciones ya que estos harían uso de los recursos de la maquina
como el microprocesador y la memoria RAM. Esto poco existo ya que fue
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
153
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 154 de
167
lanzado en un momento en que la potencia de las maquinas no era la
adecuada para soportar esta carga y el mal o escaso soporte de los
drivers para estos dispositivos en sistemas operativos que no fuesen
Windows. Desaparecido por completo en los modelos de placas madre
para Pentium IV y a partir de AMD en Soket A.
ESTÁNDAR AC97: CODEC de Audio '97 Es un conjunto de
características estandarizadas y un sistema de interconexión de
controladores para chips de audio. La version más reciente, la 2.3
especifica la habilidad de los chips de audio para detectar cómo están
siendo usados los puertos de audio para reconfigurarlos de manera
correcta. Este codec se conecta directamente al southbridge.
Plug & Play Plug-and-play (conocida también por su abreviatura PnP)
es la tecnología mediante la cual un dispositivo informático puede
conectarse a un ordenador mientras está funcionando y que se
reconozca y sea usable inmediatamente. Para que eso sea posible, el
sistema operativo con el que funciona el ordenador debe tener soporte
para dicho dispositivo.
Socket En inglés se utiliza para designar el conector hembra de una
acople electrónico, plug para el conector macho. En computadores
puede traducirse como ranura pero no es equivalente al término slot ,
ya que socket hace referencia al compartimiento que aloja al procesador
y que es rectangular, mientras que slot hace referencia a los
conectotores donde se alojan las tarjetas.
AMD Advanced Micro Devices (AMD) es la segunda compañía
mundial productora de microprocesadores (detrás de Intel) y uno de los
más importantes fabricantes de memoria flash y otros dispositivos
semiconductores. Sus procesadores más conocidos son el Athlon, el
Sempron y el Duron.
ROM es el acrónimo de Read-Only Memory (memoria de sólo lectura).
Es una memoria de semiconductor no destructible, es decir, que no se
puede escribir sobre ella, y que conserva intacta la información
almacenada, incluso en el caso de interrupción de corriente (memoria no
volátil). La ROM suele almacenar la configuración del sistema o el
programa de arranque del ordenador. La memoria de sólo lectura o ROM
es utilizada como medio de almacenamiento de datos en los
ordenadores. Debido a que no se puede escribir fácilmente, su uso
principal reside en la distribución de programas que están
estrechamente ligados al soporte físico del ordenador, y que
seguramente no necesitarán actualización. Por ejemplo, una tarjeta
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
154
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 155 de
167
gráfica puede realizar algunas funciones básicas a través de los
programas contenidos en la ROM. Hay una tendencia a poner cada vez
menos programas en la estática ROM, y más en los discos, haciendo los
cambios mucho más fáciles. Los ordenadores domésticos a comienzos
de los 80 venían con todo su sistema operativo en ROM. No había otra
alternativa razonable ya que las unidades de disco eran generalmente
opcionales. La actualización a una nueva versión significa usar un
soldador o un grupo de interruptores DIP y reemplazar el viejo chip de
ROM por uno nuevo. En el año 2000 los sistemas operativos en general
ya no van en ROM. Todavía los ordenadores pueden dejar algunos de
sus programas en memoria ROM, pero incluso en este caso, es más
frecuente que vaya en memoria flash. Los teléfonos móviles y los
asistentes personales digitales (PDA) suelen tener programas en
memoria ROM (o, por lo menos en memoria flash).
Caché En informática, un caché es un conjunto de datos duplicados de
otros originales, con la propiedad de que los datos originales son
costosos de acceder, normalmente en tiempo, respecto a la copia en el
caché. Cuando se accede por primera vez a un dato, se hace una copia
en el caché; los accesos siguientes se realizan a dicha copia, haciendo
que el tiempo de acceso aparente al dato sea menor. Normalmente la
capacidad de almacenamiento de datos en un caché es mucho menor
que la del dispositivo donde se encuentran los datos originales. Las
razones por las que los cachés funcionan es que hay muchos patrones
típicos de acceso a los datos (entre estos están la localidad espacial y la
localidad temporal), haciendo que solo exista una copia en caché de los
datos con más probabilidad de volver a accederse.
SIMM Single In-line Memory Module (Módulo de memoria en línea
sencilla), y es una forma de memoria RAM para el uso en PC’s. Estas
memorias tienen 30 o 72 pines y su nombre viene dado porque es una
memoria que viene en una tarjeta electrónica insertable (módulo) que
tiene los contactos alineados (línea) en el borde inferior en un solo lado
DIMM es un acrónimo inglés de Dual In-line Memory Module (Módulo de
memoria dual en línea), y es una forma de memoria RAM para el uso de
ordenadores personales. Las memorias DIMM comenzaron a reemplazar
a las SIMMs como el tipo predominante de memoria cuando los
microprocesadores Intel Pentium dominaron el mercado.
CODEC es una abreviatura de Compresor-Decompresor. Describe una
especificación implementada en software, hardware o una combinación
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
155
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 156 de
167
de ambos, capaz de transformar un archivo con un flujo de datos
(stream) o una señal. Los códecs pueden codificar el flujo o la señal (a
menudo para la transmisión, el almacenaje o el cifrado) y recuperarlo o
descifrarlo del mismo modo para la reproducción o la manipulación en
un formato más apropiado para estas operaciones. Los códecs son
usados a menudo en videoconferencias y emisiones de medios de
comunicación. La mayor parte de códecs provoca pérdidas de
información para conseguir un tamaño lo más pequeño posible del
archivo destino. Hay también codecs sin pérdidas, pero en la mayor
parte de aplicaciones prácticas, para un aumento casi imperceptible de
la calidad no merece la pena un aumento considerable del tamaño de los
datos. La excepción es si los datos sufrirán otros tratamientos en el
futuro. En este caso, una codificación repetida con pérdidas a la larga
dañaría demasiado la calidad. Muchos archivos multimedia contienen
tanto datos de audio como de vídeo, y a menudo alguna referencia que
permite la sincronización del audio y el vídeo. Cada uno de estos tres
flujos de datos puede ser manejado con programas, procesos, o
hardware diferentes; pero para que estos streams sean útiles para
almacenarlos o transmitirlos, deben ser encapsulados juntos. Esta
función es realizada por un formato de archivo de vídeo (contenedor),
como .mpg, .avi, .mov, .mp4, .rm, .ogg or .tta. Algunos de estos
formatos están limitados a contener streams que se reducen a un
pequeño juego de codecs, mientras otros son usados para objetivos más
generales.
HDD (del inglés Hard Disk Drive) e llama disco duro al dispositivo
encargado de almacenar información de forma persistente en un
ordenador. Los discos duros generalmente utilizan un sistema magnético
de lectura/escritura. En este tipo de disco encontramos dentro de la
carcasa una serie de platos metálicos apilados girando a gran velocidad.
Sobre estos platos se sitúan los cabezales encargados de leer o escribir
los impulsos magnéticos. Hay distintos estándares a la hora de
comunicar un disco duro con el ordenador, los más utilizados son
IDE/ATA y SCSI. Tal y como sale de fábrica el disco duro no puede ser
utilizado por un sistema operativo. Antes tenemos que definir en él una
o más particiones y luego hemos de darles un formato que pueda ser
entendido por nuestro sistema. También existen otro tipo de discos
denominados de estado sólido que utilizan cierto tipo de memorias
construidas con semiconductores para almacenar la información. El uso
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
156
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 157 de
167
de esta clase de discos generalmente es limitado a las
supercomputadoras, por su elevado precio.
FDD Un disco flexible o también disquete (en inglés floppy disk), es
un tipo de dispositivo de almacenamiento de datos formado por una
pieza circular de un material magnético que permite la grabación y
lectura de datos, fino y flexible (de ahí su denominación) encerrado en
una carcasa fina cuadrada o rectangular de plástico. El hecho de que el
aspecto exterior no sea circular confunde a muchos usuarios
principiantes. Los discos flexibles son leídos y escritos por una unidad de
disco flexible (ing: floppy disk drive o FDD), que no debe ser confundida
con “unidad de disco fija” que es un viejo término de IBM para referirse
al disco duro. Los discos flexibles, conocidos comúnmente como
disquetes (por analogía con casete), fueron los más usados en los años
80 y 90. Se utilizaban en los sistemas operativos de PCs como IBM para
distribuir programas, traspasar información de un ordenador a otro y
crear pequeñas copias de seguridad. Antes de la llegada del disco duro,
los discos flexibles eran utilizados para almacenar los programas y el
sistema operativo del ordenador. A comienzos de los 90, al aumentar el
tamaño del los programas informáticos, muchos de ellos debían ser
grabados en varios disquetes. A finales de los 90, la distribución de
programas cambió gradualmente al CD-ROM, y se introdujeron formatos
de copias de seguridad de alta densidad como el disco Zip. Con la
llegada de Internet a las masas y de un ethernet barato, el disquete ya
no era necesario para guardar la información, y fue por consecuencia
suplantado. Ahora se realizan copias de seguridad masivas en unidades
de cinta de gran capacidad (como cintas de audio digital, ing: DAT) o en
discos compactos utilizando una grabadora de discos compactos. De
todas formas, los fabricantes eran reacios a retirar la unidad de disco
flexible de los ordenadores, argumentando que servían para mantener la
compatibilidad con programas anteriores. La empresa Apple fue la
primera en eliminar el disco flexible por completo con la puesta en
circulación de su modelo iMac en 1998 el cual no tenía unidad de disco
flexible. En marzo de 2003, Dell tomó una decisión similar al hacer la
unidad de disco flexible opcional en sus ordenadores, una decisión
considerada mayoritariamente como el final del disco flexible como
medio de almacenamiento e intercambio de datos mayoritario.
ESDI Abreviatura de Enhanced Small Device Interface, es una interfaz
estándar desarrollada por un conjunto de constructores de partes
electrónicas para computadores para conectar unidades de disco a un
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
157
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 158 de
167
PC. ESDI es de dos a tres veces más rápido que el estándar anterior, el
ST-506. Para usar una unidad ESDI, la tarjeta base debe tener un
controlador que soporte esta. ESDI fue introducido a comienzo de los 80
y actualmente es obsoleto, en lugar de este estándar se usan interfaces
SCSI, IDE, o EIDE.
IDE La interfaz IDE (Integrated Drive Electronics) o ATA (Advanced
Technology Attachment) controla los dispositivos de almacenamiento
masivo de datos, como los discos duros, ATAPI (Advanced Technology
Attachment Packet Interface) añade además dispositivos como las
unidades CD-ROM. IDE significa Integrated Drive Electronics -Controlador Electrónico Incorporado-- que indica que el controlador del
dispositivo se encuentra integrado en la electrónica del dispositivo. ATA
significa AT atachment y ATAPI, ATA packet interface. Las diversas
versiones de ATA son:
 Paralell ATA
o ATA.
o ATA2. Soporta transferencias rápidas en bloque y multiword
DMA.
o ATA3. Es el ATA2 revisado.
o ATA4. conocido como Ultra-DMA o ATA-33 que soporta
transferencias en 33 MBps.
o ATA5 o ATA/66. Originalmente propuesta por Quantum para
transferencias en 66 MBps.
o ATA6 o ATA/100. Soporte para velocidades de 100MBps.
 Serial ATA. Remodelación de ATA con nuevos conectores
(alimentación y datos), cables y tensión de alimentación.
Las controladoras IDE casi siempre están incluidas en la placa base,
normalmente dos conectores para dos dispositivos cada uno. De los
dos discos duros, uno tiene que estar como esclavo y el otro como
maestro para que la controladora sepa a/de qué dispositivo
mandar/recibir los datos. La configuración se realiza mediante jumpers.
Habitualmente, un disco duro puede estar configurado de una de estas
tres formas:
Como maestro ('master'). Si es el único dispositivo en el cable,
debe tener esta configuración, aunque a veces también funciona si
está como esclavo. Si hay otro dispositivo, el otro debe estar
como esclavo.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
158
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 159 de
167
Como esclavo ('slave'). Debe haber otro dispositivo que sea
maestro.
Selección por cable (cable select). El dispositivo será maestro o
esclavo en función de su posición en el cable. Si hay otro
dispositivo, también debe estar configurado como cable select. Si
el dispositivo es el único en el cable, debe estar situado en la
posición de maestro. Para distinguir el conector en el que irá el
maestro del dedicado al esclavo se utilizan colores distintos.
PIO Abreviatura de Programmed Input/Output, es un método para
transferir datos entre dos dispositivos que utilize el procesador principal
como parte de la ruta de datos. ATA utiliza PIO y define la velocidad de
la transferencia de datos en terminus del modo PIO implementado.
DMA El Acceso directo a memoria (del inglés Direct Memory Access)
permite a cierto tipo de componentes de ordenador acceder a la
memoria del sistema para leer y/o escribir independientemente de la
CPU principal. Muchos sistemas hardware utilizan DMA, incluyendo
controladores de unidades de disco, tarjetas gráficas, y tarjetas de
sonido. DMA es una característica esencial en todos los ordenadores
modernos, ya que permite a dispositivos de diferentes velocidades
comunicarse sin someter a la CPU a una carga masiva de interrupciones.
Una transferencia DMA consiste principalmente en copiar un bloque de
memoria de un dispositivo a otro. En lugar de que la CPU inicie la
transferencia, la transferencia se lleva a cabo por el controlador DMA.
Un ejemplo típico es mover un bloque de memoria desde una memoria
externa a una interna más rápida. Tal operación no ocupa el procesador
y como resultado puede ser planificado para efectuar otras tareas. Las
transferencias DMA son esenciales para aumentar el rendimiento de
aplicaciones que requieran muchos recursos. El DMA Scatter-gather
permite la transferencia de datos a varias areas de memoria en una
transacción DMA simple. Es equivalente al encadenamiento de múltiples
peticiones DMA simples. De nuevo, el objetivo es liberar a la CPU de las
tareas de copia de datos e interrupciones de entrada/salida múltiples.
SAS Serial Attached SCSI Sucesor del SCSI paralelo. Aumenta la
velocidad y permite la conexión y desconexión en caliente. Al utilizar el
mismo conector que serial ATA permite utilizar estos discos, para
aplicaciones con menos necesidad de velocidad, ahorrando costes.
Permite conectar múltiples dispositivos (hasta 128) de diferentes
tamaños y tipos al mismo tiempo usando cables más delgados y largos.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
159
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 160 de
167
La transmisión se hace full duplex y soporta hasta 3.0 Gb/s. Los
dispositivos SAS se pueden comunicar tanto con dispositivos SATA como
SCSI, incluso el conector SAS es idéntico al SATA. Una diferencia clave
entre SCSI y SAS es que los dispositivos SAS cuentan con dos puertos
de datos, cada uno de los cuales reside en un dominio SAS diferente,
habilitando la redundancia contra fallas completamente, ya que si un
camino de datos falla, seguirá existiendo comunicación entre los
dispositivos a través de un camino separado e independiente.
RAID (Redundant Array Of Independent/Inexpensive Disks) es un
término inglés que hace referencia a un conjunto de discos
redundantes independientes/baratos. Este tipo de dispositivos se
utilizan para aumentar la integridad de los datos en los discos, mejorar
la tolerancia a los fallos y errores y mejorar el rendimiento. En general
permiten proveer discos virtuales de un tamaño mucho mayor al de los
discos comúnmente disponibles. Inicialmente un sistema RAID era un
conjunto de discos redundantes económicos. Oficialmente los sistemas
RAID se implementan en 7 configuraciones o niveles: RAID 0 a RAID 6.
También existen combinaciones de niveles de RAID, las combinaciones
más comunes son RAID 10 y RAID 0+1. Los sistemas RAID son
comúnmente implementados con discos de la misma capacidad para
todo el conjunto. A nivel práctico y comercial, sólo los RAID impares,
junto a las combinaciones de estos, se han impuesto en el mercado:
RAID 1, 3, 5, 7, 10, y 0+1. Destacan por su aceptación sobre los demás
el RAID 1, 5, 10, y 0+1.
GPU es un acrónimo utilizado para abreviar Graphics Processing
Unit, que quiere decir "Unidad de Proceso Gráfico". Este acrónimo se
inventó como analogía a la sigla "CPU" que identifica la "Unidad Central
de Proceso" de un computador (Central Processing Unit). Si bien en un
computador no se puede reemplazar la CPU por una GPU, hoy en día las
GPU son tan poderosas que pueden incluso superar la potencia de una
CPU, y en consecuencia, también su precio.
Video Graphics Array (VGA) es una norma de visualización de
gráficos para ordenadores creada en 1987 por IBM. Como pasó con
otras productos de IBM, múltiples fabricantes crearon tarjetas clónicas
compatibles con la norma VGA. Aunque la norma VGA está anticuada,
siendo superada por la XGA, es último estándar de visualización de
gráficos de IBM que la mayoría de los fabricantes decidieron seguir. A
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
160
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 161 de
167
partir de entonces cada fabricante creó mejoras del estándar VGA
incompatibles entre sí denominadas SVGA (Super VGA).
CD (del inglés compact disc) El disco compacto es un soporte digital
óptico utilizado para almacenar cualquier tipo de información (audio,
video, documentos, ...). Fue desarrollado conjuntamente en 1980 por
las empresas Sony y Philips, y comenzó a comercializarse en 1982. Hoy
en día tecnologías como el DVD pueden desplazar o minimizar esta
forma de almacenamiento, aunque su uso sigue vigente. A pesar de que
cada fabricante utiliza pequeñas variaciones en la composición de los
materiales empleados en la fabricación de los discos, todos siguen un
mismo patrón: la información es almacenada en un sustrato de
policarbonato plástico, al que se le añade una capa refractante de
aluminio que reflejará la luz del láser; se le añade una capa protectora
que lo cubre y, opcionalmente, una etiqueta en la parte superior.
DVD (Digital Versatile Disc) es un formato de almacenamiento
multimedia en disco óptico que puede ser usado para guardar datos,
incluyendo películas con alta calidad de video y sonido. Los DVDs se
asemejan a los discos compactos: sus dimensiones físicas son las
mismas - 12 cm o el mini de 8cm - pero están codificados en un formato
distinto y a una densidad mucho mayor. A diferencia de los CDs, todos
los DVDs deben contener un sistema de archivos. Este sistema de
archivos se llama UDF, y es una extensión del Estándar ISO 9660, usado
para CDs de Datos.
BOOT En informática, el arranque, bootaje o booteo es un proceso
que inicia el sistema operativo cuando el usuario enciende un sistema
informático. En inglés se conoce como booting. Fue traducido del
término en inglés boot, como "arranque" ó "inicialización" de un
ordenador o dispositivo, concretamente suele referirse al arranque del
sistema operativo.
MBR Master boot record es la traducción del inglés de "registro
principal de arranque" (MBR), es un sector de 512 bytes al principio del
disco duro que contine una secuencia de comandos necesarios para
cargar
un
sistema
operativo.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
161
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 162 de
167
También el primer sector de cada partición, en arquitectura de la PC de
la IBM, tiene la misión de arrancar sistema operativo. Normalmente el
MBR lo único que hace es ejecutar el sector de arranque de la partición
marcada como de arranque. Cuando se arranca el ordenador la BIOS
ejecuta el MBR del dispositivo que tenga configurado en la CMOS. Si en
el primer dispositivo no existe, suele haber otros dispositivos
alternativos, configurados también en la CMOS, para que arranque por
lo
menos
alguno.
FDISK Utilidad de windows95/98 que sirve para crear particiones en el
disco duro.
PARTICIÓN En el mundo de la ingeniería de la computación, la
partición de disco duro es la creación de divisiones lógicas en un disco
duro que permite aplicar el formato lógico de un sistema operativo
especifico. El particionamiento de disco es una técnica simple que puede
ser vista como un precursor de la dirección de volumen lógico. Mas de
un sistema operativo puede ser ejecutado o instalado en una sola
computadora, sin una partición (usando LiveCDs, keydrives o una
segunda unidad de disco duro con un medio de arranque –por ejemplo
un disquete- que salta a el segundo disco duro).
Sistema operativo Un sistema operativo (SO) es un conjunto de
programas o software destinado a permitir la comunicación del usuario
con un ordenador y gestionar sus recursos de manera cómoda y
eficiente. Comienza a trabajar cuando se enciende el ordenador, y
gestiona el hardware de la máquina desde los niveles más básicos. Hoy
en día un sistema operativo se puede encontrar normalmente en
ordenadores o productos electrónicos como teléfonos móviles.
FAT (File Allocation Table o "tabla de ubicación de archivos") es el
principal sistema de archivos desarrollado para MS-DOS y Windows. El
sistema de archivos FAT es relativamente sencillo, y debido a eso es
muy popular como formato para disquetes. Adicionalmente, el formato
FAT es soportado por casi todos los sistemas operativos para IBM PCs, y
debido a esto a menudo se lo utiliza para compartir información entre
diversos sistemas operativos. FAT es un sistema de archivos
relativamente anticuado, y debido a esto sufre de varios problemas.
Para comenzar, su distribución de archivos simple permite la
fragmentación, lo que produce eventuales pérdidas en el desempeño de
operaciones sobre archivos. Luego, FAT no fue diseñado para
redundancia en caso de fallos del sistema. Las primeras versiones de
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
162
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 163 de
167
FAT permitían nombres de archivo de hasta 8+3 caracteres (8 para el
nombre y 3 para la extensión) , aunque esto fue solucionado por
Microsoft al inventar VFAT, el cual permite nombres de hasta 255
caracteres. Finalmente, los sistemas de archivos FAT no permiten
directivas de seguridad, garantizando el acceso a todos los archivos de
una partición por cualquier usuario del sistema operativo.
NTFS (siglas en inglés de New Technology File System) es un sistema
de archivos diseñado específicamente para Windows NT, con el objetivo
de crear un sistema de archivos eficiente, robusto y con seguridad
incorporada desde su base. También soporta compresión nativa de
ficheros y encriptación (esto último sólo a partir de Windows 2000).
NTFS permite definir el tamaño del cluster, a partir de 512 bytes
(tamaño mínimo de un sector) de forma independiente al tamaño de la
partición. Es un sistema adecuado para las particiones de gran tamaño
requeridas en estaciones de trabajo de alto rendimiento y servidores.
Puede manejar discos de hasta 2 Terabytes.
Los inconvenientes que plantea son:
Necesita para si mismo una buena cantidad de espacio en disco
duro por lo que no es recomendable su uso en discos menores de
400 MB.
No es compatible con MS-DOS, Windows 95 ni Windows 98.
La conversión a NTFS es unidireccional. Si elige actualizar la
unidad, no podrá volver a convertirla a FAT.
GNU/Linux sólo tiene soporte de lectura para este sistema de ficheros, y
de escritura experimental, aunque no se suele activar por defecto.
Existe una alternativa Captive-NTFS, que usa las librerias propietarias
de Windows NT para tener acceso completo a NTFS.
EXT/2 EXT2 (second extended filesystem o "segundo sistema de
archivos extendido") fue el sistema de archivos estándar en el sistema
operativo Linux por varios años y continúa siendo ampliamente
utilizado. Fue diseñado originalmente por Rémy Card. La principal
desventaja de EXT2 es que no posee una bitácora, por lo que muchos de
sus usuarios están emigrando a ReiserFS y su sucesor EXT3.
EXT3 (third extended filesystem o "tercer sistema de archivos
extendido") es un sistema de archivos con registro por diario (en inglés
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
163
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 164 de
167
journaling), es un sistema de archivo de registro por diario, por el solo
hecho de tener un "espacio apartado para el buffer de journaling". este
sistema el cual se encuentra creciendo en popularidad entre usuarios del
sistema operativo Linux. A pesar de su menor desempeño y
escalabilidad frente a alternativas como ReiserFS o XFS, posee la
ventaja de permitir migrar del sistema de archivos EXT2 sin necesidad
de reformatear el disco. La única diferencia entre EXT2 y EXT3 es el
registro por diario. Un sistema de archivos EXT3 puede ser montado y
usado como un sistema de archivos EXT2. Provee escalabilidad en el
tamaño del sistema de archivos del disco Nos permite hacer mas y mas
grandes sistemas de archivos sin tener la penalidad del sistema de
archivos del disco La meta principal es proveer una funcionalidad plena
en una sola pieza Otra de las metas es proveer total, absoluta y
completa compatibilidad backward y forward entre EXT2 y EXT3. Otra
diferencia también importante, es que EXT3 utiliza un árbol binario
balanceado (AVL)
ReiserFS es un sistema de archivos de propósitos generales, diseñado e
implementado por un equipo liderado por Hans Reiser. Actualmente
funciona bajo Linux y existen planes de incluirlo en otros sistemas
operativos en el futuro. Con la versión 2.4.1 del núcleo Linux, se
convirtió en el primer sistema de archivos con registro por diario (en
inglés, journaling) en ser incluido en el núcleo estándar. La ventaja más
publicitada sobre el sistema de archivos estándar de Linux, EXT2, es su
registro por diario. Esto reduce ampliamente el riesgo de corrupción del
sistema de archivos (y la necesidad de extensas revisiones del sistema)
luego de un apagado no programado del sistema, ya sea por un corte
eléctrico o un error del sistema. Desafortunadamente, convertir un
sistema a ReiserFS requiere para usuarios de EXT2 el reformateo
completo de sus discos, una desventaja no presente en su principal
competidor, EXT3. ReiserFS también maneja directorios conteniendo
enormes cantidades de archivos pequeños muy eficientemente. Por
estas ventajas, muchas distribuciones de Linux lo han hecho su sistema
de archivos por defecto. La nueva versión de ReiserFS se llama Reiser4.
HFS (del inglés “Hierarchical File System”) Es el formato de volumen
nativo usado en los computadores Macintosh modernos. hfsutils es el
nombre de un complete paquete de software que se está desarrollando
para permitir la manipulación de volúmenes HFS desde UNIX y otros
sistemas operativos. En adición a la version original para UNIX, varios
puertos se están habilitando eel uso bajo DOS, Windows 95/NT, y OS/2.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
164
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 165 de
167
Ya que desde las últimas versiones de kernels 2.1.x, el módulo HFS ha
sido parte del kernel principal de cualquier distribución linux, no se
necesita bajar ningún tipo de software a menos que se cuente con un
kernel muy antiguo.
FORMATEAR El formateo de una unidad implica la eliminación total de
los datos, debido a que se comienza a reestructurar los espacios de
memoria sobre los discos. Este proceso se realiza escribiendo sobre el
sector 0, el sistema de distribución de archivos. Este sistema de
distribución es único dentro de cada sistema operativo, y se realiza a
nivel de software y no de hardware, ya que la distribución de disco está
hecha sectores y cilindros, siendo el más importante a nivel de usuario,
los sectores o clústers.
Windows: FAT, FAT16, FAT32, NTFS
Linux: EXT2, EXT3
Mac: HFS
POST (del ingles Power On Self Test, Auto chequeo de encendido ) Es
una secuencia de prueba diagnóstica que es realizada por la BIOS del
computador tan pronto como éste es encendido. El POST determina si la
RAM, las unidades de disco, los periféricos y otros componentes de
hardware trabajan en orden. Si el diagnóstico determina que todo está
funcionando correctamente, el computador continuará con el booteo.
CONTROLADOR/DRIVER Es un programa que controla un dispositivo.
Cualquier dispositivo, bien sea una impresora, una unidad de disco o el
teclado debe tener un programa controlador o driver. Muchos
controladores, como por ejemplo el del teclado, vienen con el sistema
operative. Para otros elementos de hardware, es necesario cargar un
contralador apropiado cuando es conectado el dispositivo al computador.
En sistemas DOS, los drivers son archivos con extension *.SYS, en
ambientes windows, generalmente tienen asociada una extensión
*.DRV. Un driver actúa como como un traductor entre el dispositivo y
los programas que lo utilizan. Cada componente tiene su propio
conjunto de comandos especializados que sólo el driver maneja. En
contraste, la mayoría de los programas acceden a los dispositivos
mediante el uso de comandos genéricos. El driver por lo tanto acepta
commandos genéricos de cualquier programa y los traduce en
commandos especializados para el dispositivo.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
165
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 166 de
167
VIRUS INFORMÁTICO Existe cierta controversia sobre la definición de
virus informático. Quizás la más aceptada pertenece a Fred B. Cohen,
quien en 1984 escribió su tesis doctoral acerca de los virus,
definiéndolos como «un programa de ordenador que puede infectar
otros programas modificándolos para incluir una copia de sí mismo». Los
virus informáticos tienen básicamente la función de propagarse,
replicándose, pero algunos contienen además una carga dañina
(payload) con distintos objetivos, desde una simple broma hasta realizar
daños importantes en los sistemas, o bloquear las redes informáticas
generando tráfico inútil. El funcionamiento de un virus informático es
conceptualmente
simple:
ejecutando
un
programa
infectado
(normalmente por desconocimiento del usuario) el código del virus
queda almacenado (residente) en la memoria RAM del ordenador, aun
cuando el programa que lo contenía haya terminado de ejecutarse. El
virus toma entonces el control de los servicios básicos del sistema
operativo, infectando los posteriores ficheros ejecutables que sean
abiertos o ejecutados, añadiendo su propio código al del programa
infectado y grabándolo en disco, con lo cual el proceso de replicado se
completa.
GUSANOS/WORM En informática un gusano es un virus o programa
autoreplicante que no altera los archivos sino que reside en la memoria
y se duplica a sí mismo. Los gusanos utilizan las partes automáticas de
un sistema operativo que generalmente son invisibles al usuario. Es algo
usual detectar la presencia de gusanos en un sistema cuando, debido a
su incontrolada replicación, los recursos del sistema se consumen hasta
el punto de que las tareas ordinarias del mismo son excesivamente
lentas o simplemente no pueden ejecutarse. Nótese que el término
inglés worm, también tiene otra acepción dentro del mundo de la
informática: Worm (de write once, read many), perteneciente a las
tecnologías de almacenamiento de datos. No debe ser confundido con el
de gusano informático.
ANTIVIRUS Los antivirus son programas cuya función es detectar y
eliminar virus informáticos y otros programas maliciosos (a veces
denominado malware). Básicamente, un antivirus compara el código de
cada archivo con una base de datos de los códigos de los virus
conocidos, por lo que es importante actualizarla periódicamente a fin de
evitar que un virus nuevo no sea detectado. También se les ha agregado
funciones avanzadas, como la búsqueda de comportamientos típicos de
virus (técnica conocida como heurística) o la verificación contra virus en
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
166
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
INSTITUTO SALESIANO DE FORMACIÓN
TÉCNICA LEÓN XIII
S03modulos_0701.doc
Página 167 de
167
redes de computadores. Normalmente un antivirus tienen un
componente que se carga en memoria y permanece en ella para
verificar todos los archivos abiertos, creados, modificados y ejecutados
en tiempo real. Es muy común que tengan componentes que revisen los
adjuntos de los correos electrónicos salientes y entrantes, así como los
scripts y programas que pueden ejecutarse en un navegador web
(ActiveX, Java, JavaScript).
NOTA IMPORTANTE El material consignado en este glosario fue
obtenido principalmente de las siguientes fuentes:
http://www.rae.es/
http://es.wikipedia.org/
http://www.webopedia.com/
Algunas definiciones pueden haber sido modificadas o complementadas.
INSTITUTO SALESIANO DE FORMACION TÉCNICA LEON XIII
167