Download Manual del Alumno - Instituto Wiener

Document related concepts
no text concepts found
Transcript
INSTITUTO SUPERIOR TECNOLÓGICO
NORBERT WIENER
Manual del Alumno
ASIGNATURA: Tecnología de
Computadoras e Información
PROGRAMA: S3C
Lima-Perú
2
Manual del Alumno
INTRODUCCION
LA VIDA SIN COMPUTADORES.
Los computadores constituyen una parte importante de la vida moderna que
apenas si nos percatamos de su existencia. Pero están en todas partes y parece que sólo
nos damos cuenta de su presencia cuando dejan de funcionar. Imaginemos que
sucedería sin ellos:
“Te despiertas y te das cuenta que la mañana está muy avanzada; se supone que
debes ingresar a las 8 al instituto pero el sol ingresa por tu ventana con todo su
resplandor. El despertador no se ha activado oportunamente, inclusive tus padres y tus
hermanos también siguen en cama debido a este problema. Miras a tu reloj digital y no
ves absolutamente nada, está en blanco. Te preocupas porque el profesor espera que
entregues un trabajo el día de hoy.
El televisor y la radio no te ayudan porque no captan ninguna estación, no puedes
saber la hora exacta, preguntas a tus vecinos pero tienen el mismo problema. Levantas
el auricular del teléfono pero no hay tono.
Sales a la calle preocupado, no encuentras ningún periódico en ningún kiosko. Ves
a los canillitas preocupados pues no saben que vender hoy. Te acuerdas que los
periódicos dependen de procesadores de textos computadorizados e imprentas que
trabajan con computadoras. Llegas al paradero y encuentras gran cantidad de gente
viendo la manera de llegar a su trabajo. Los buses están atestados de gente y son sólo
aquellos de 20 años de antigüedad los que trabajan. No hay ninguna couster o combi en
la calle. Debe ser porque su encendido es computarizado, dices. Después de viajar casi
dos horas colgado debido a que no hay semáforos que controlen el tráfico y sólo algunos
policías se dan abasto para tal fin, llegas al instituto y te das con la sorpresa que se han
visto obligados a suspender las clases ya que el 75% de alumnos aún no llegan y la
mitad del personal tiene problemas para desplazarse. Aliviado en parte puesto que tu
trabajo estaba sin imprimir decides ir a tomar un desayuno. No tienes suficiente dinero
pero te acuerdas que tu padre la noche anterior te dio su tarjeta de débito para que le
hagas un trámite el día de hoy. Decides aprovechar el tiempo para hacerlo ahora. Llegas
al banco y ves una enorme cola que da vuelta dos veces a la manzana, te acercas un
poco y preguntas, te dicen que todas las transacciones se están haciendo a mano.
Desistes del trámite y vas al cajero a sacar un poco de dinero. Cincuenta metros antes de
3
Manual del Alumno
llegar ves que el cajero está vacío y un señor golpea testarudamente la pantalla del
mismo. Ya sabes que es lo que pasa.
Regresas a tu casa a pie pues no encontraste mejor manera de matar el tiempo.
Son las 6 de la tarde y de pronto todo vuelve a la normalidad. Han sido 12 horas en que
en todo el mundo dejaron de funcionar los computadores. Enciendes emocionado las
noticias y te das con la sorpresa que las economías norteamericana, europea occidental y
asiática se han desplomado por completo debido a que no se han podido llevar a cabo
transacciones comerciales ni financieras durante todo ese tiempo. Las bolsas de valores
de todos los países del mundo han estado sin trabajar, se han producido fraudes por
miles de millones de dólares por querer hacer operaciones financieras en forma manual.
Los especuladores han hecho de las suyas. Muchas empresas transnacionales han
quebrado y una ola enorme de suicidios arremete el mundo. Los aviones de carga,
barcos de transporte, camiones y otros medios de transporte de productos comerciales y
servicios han estado inactivos. Se anuncia que la economía peruana sufrirá debido a que
estamos integrados a dichos mercados. Además, miles y miles de personas han fallecido
en accidentes aéreos, los radares dejaron de funcionar y no había forma de controlar los
vuelos de los aviones al momento que todos los computadores dejaron de funcionar,
otros miles murieron encerrados y asfixiados en edificios dentro de los elevadores.
Saqueos y asesinatos se han producido en supermercados, no hay vigilancia policial
inmediata, ya que no había forma de avisar donde se llevaban a cabo los delitos. El EWong, Plaza Vea, Santa Isabel, el Metro y mercados particulares de todo el país han sido
tomados y desvalijados por turbas enormes de pandilleros y gente pobre que sabe verá
afectada su economía ya que el presidente anuncia un ajuste total de precios y salarios.
El mundo es un caos y hasta tú y tu familia se dan tiempo para pensar si será bueno
darse una vueltita por un mercado o a la bodega de la esquina para traerse alguito y
guardar algo de comida...”
Esta historia puede continuar, pero su sentido es muy obvio. Los computadores
son parte de nuestra vida cotidiana tanto en su operación como por su falta de
funcionamiento. Lo sorprendente de ello es que hayamos llegado a depender tanto de
ellos y en tan corto tiempo.
LA COMPUTACION Y LA INFORMATICA
Para dilucidar entre lo que es computación y lo que es informática es necesario
tener presente lo que es técnica y lo que es ciencia.
Técnica
La técnica es una habilidad que permite utilizar un conjunto de procedimientos
para cumplir un fin determinado. Esta habilidad puede ser física o mental. Para el caso de
habilidades mentales podemos mencionar la Mayeútica1 de Sócrates o el jugar ajedrez.
Una habilidad física es por ejemplo la forma en que un jugador de fútbol patea un tiro
libro o una voleibolista aplica un bloqueo. El grado de inclinación del pie y del cuerpo del
jugador así como la posición de la mano de la voleibolista al efectuar dichas acciones son
el conjunto de procedimientos que llamaremos técnica.
La técnica puede combinar las habilidades físicas y mentales cuando de utilizar
herramientas se trata. Un carpintero utiliza el martillo, serrucho o cepillo para construir
un mueble. Un albañil sabe la cantidad de agua exacta para combinar el cemento así
como la profundidad que deben tener los cimientos para un edificio, para ello utiliza
palas, espatulas y picos. Un campesino sabe que tipo de tierra, nutrientes, cantidad de
agua y cuando sembrar sus productos, puede utilizar para ello una yunta, tractores,
calendarios agrícolas, etc.
En el caso de las computadoras un individuo necesita cultivar las habilidades
físicas y mentales para el uso de las mismas. Entre las habilidades físicas podemos
mencionar el correcto uso del teclado y el mouse. Entre las mentales se encuentran el
conocimiento mínimo para el uso de un procesador de textos por ejemplo, como cambiar
el tamaño de la página, subrayar, cambiar formatos de fuentes, párrafos, insertar
imágenes, etc. La evolución de la técnica y la aparición de maquinarias y métodos para
controlar nuestro medio y hacer nuestras labores domésticas más eficientes recibirá el
nombre de tecnología.
LA COMPUTACION
Tomando en cuenta los anteriores ejemplos concluiremos que la computación es
una técnica, ya que aglomera ciertas habilidades físicas y mentales para cumplir un fin
determinado. A pesar de que la computación nos lleva a pensar en forma inmediata en
1 Técnica con la cual se comprobaba la verdad de un concepto mediante un bombardeo de preguntas.
5
INTRODUCCION
computadoras, no es necesaria la existencia de la misma para decir que la computación
existe. En forma cierta, la computación existe desde que la humanidad descubrió el
primer proceso computacional: contar. Computación en su sentido conceptual significa
cálculo y como tal, existe desde hace miles de años. Lo que pasa es que el término se
ha vuelto tan popular en estos días que lo relacionamos directamente con las
computadoras, inclusive en los diccionarios y enciclopedia encontraremos que la
computación tiene que ver exclusivamente con las computadoras, cosa no tan cierta.
Ciencia
Se puede definir como ciencia2 a la organización de la experiencia sensorial
objetivamente verificable, es decir, todo aquello que mediante el uso de nuestros
sentidos en principio y de la razón en segundo pueda comprobarse como cierto utilizando
un método científico3. Toda ciencia tienen un método, y éste a su vez engendra una
teoría científica. Dentro del método científico podemos detallar la existencia de dos
entes: sujeto de estudio y objeto de estudio.
El sujeto de estudio es aquél que se dedica a aplicar las acciones del método
científico. El objeto de estudio es la razón del método científico, es el fenómeno o
problema sobre el cual el sujeto de estudio presta atención.
Aparte del sujeto de estudio y el objeto de estudio debemos nombrar algunos
procesos que el sujeto de estudio aplica sobre el objeto de estudio cuando aplica
investigación científica4. Estos son: la observación, la experimentación, la
hipótesis, la comprobación, y finalmente la teoría científica.
SUJETO
METODO CIENTIFICO
DE
-
OBSERVACION
ESTUDI
-
EXPERIMENTACION
-
HIPOTESIS
-
COMPROBACION
-
TESIS
O
OBJETO DE
ESTUDIO
La observación consiste en el hecho de que el sujeto de estudio se percata de un
fenómeno llevado a cabo por el objeto de estudio. La experimentación es la acción en la
cual el sujeto de estudio repite en forma intencional el posible acontecimiento que afecta
2 Del latin Scientia, conocer.
3 Método de estudio sistemático de la naturaleza que incluye las técnicas de observación, reglas para el
razonamiento y la predicción, ideas sobre la experimentación y los modos de comunicar los resultados
experimentales (hipítesis) y teóricos.
4 Acción en la cual el sujeto de estudio aplica el método científico sobre el objeto de estudio.
6
INTRODUCCION
al objeto de estudio. Si el sujeto de estudio repite muchas veces tal acción podrá
formular una hipótesis, es decir, un postulado en el cual pueda mencionar que ante tal
acción sobre el objeto de estudio se producirá tal reacción.
La hipótesis debe ser comprobada científicamente, en otras palabras el sujeto de
estudio debe enumerar y demostrar la existencia de todos los pasos que dan origen al
fenómeno sobre el objeto de estudio. Si todo ello coincide estaremos frente a una nueva
teoría científica.
Un ejemplo clásico es el de Louis Pasteur, el científico francés que demostró que
los gérmenes desarrollaban las enfermedades. Para mucha gente del
siglo XIX era
ridícula la idea de que pequeños seres causaran la muerte de organismos más grandes.
Pasteur hizo numerosos experimentos con leche
fermentada y el aire. Mediante la observación se dio
cuenta que la leche se fermentaba al contacto con el
aire, ya que éste contenía una gran variedad de
microorganismos. Experimentó una y otra vez con
probetas
especiales
llenas
de
leche
desarrollando
hipótesis; algunas probetas tenían contacto con el aire y
otras no, las que tenían contacto se fermentaban. La
comprobación de la existencia de los gérmenes y los
procesos de fermentación llevaron a la hipótesis de
Pasteur a convertirse en una teoría científica que se
cumple en todos los casos.
De hecho, algunas hipótesis no se llegan a
Louis Pasteur
Hizo importantes contribuciones en
el campo de la química orgánica a
mediados del siglo XIX
Desautorizó
la
teoría
de
la
generación espontánea.
Se le considera fundador de la
microbiología. Desarrolló la teoría
de los gérmenes para determinar la
causa de muchas enfermedades.
convertir en teorías tales como la Hipótesis de la Generación Espontánea de Francesco
Redi, ésta hipótesis mencionaba que por ejemplo las moscas se creaban de la carne
podrida. Al momento de observar un trozo de carne podrida veremos que al poco tiempo
denota larvas de moscas y luego moscas propiamente dichas. La observación en este
caso es engañosa, puesto que ya sabemos que los huevecillos de mosca se esparcen por
el aire y pueden llegar a la carne podrida. No basta la observación para determinar
teorías científicas.
Cada sujeto de estudio y objeto de estudio tiene un nombre propio en cada
disciplina científica. En el caso de la historia el sujeto de estudio se llama historiador y su
objeto de estudio es el documento histórico. En el caso de la economía el sujeto de
INTRODUCCION
7
estudio es el economista y su objeto de estudio son las relaciones económicas entre los
hombres. Así en la medicina hallaremos un médico y un paciente, en el Derecho, el
abogado y las relaciones normativas de la sociedad, etc.
En el mundo de las computadoras también existe un método científico, existe un
sujeto de estudio y un objeto de estudio y por supuesto existen los procedimientos de
observación, experimentación, hipótesis, comprobación y teorías, en otras palabras
existe una ciencia que tiene que ver mucho con las computadoras y ésta se llama
Informática.
LA INFORMATICA
La informática es la ciencia que se dedica al tratamiento de los datos.
Comparando con todo lo antedicho, ubicaremos al sujeto de estudio y al objeto de
estudio.
El sujeto de estudio en la informática es el analista de sistema o el analistaprogramador de sistema. El objeto de estudio será el dato y/o la información. En este
punto es necesario establecer conceptos y diferenciaciones para una mayor comprensión.
EL DATO
Se define como dato a cualquier objeto de estudio o concepto, es decir, cualquier
cosa de existencia física (material) o abstracta (inmaterial). Un ejemplo de dato en forma
material puede ser un lápiz, nuestro compañero, una hoja de papel, el aire, la cantidad
de agua que cae durante una lluvia, el número de huevos que pone una gallina en un
año, etc. Un dato abstracto puede ser nuestro coeficiente intelectual, nuestros
sentimientos5, el concepto de número, la idea de Dios y tantos otros.
Los datos tienen propiedades, o sea, características que los diferencian o
asemejan unos de otros: forma, tamaño, color, expresiones, y lo mejor de todo, que es
posible de medirlos tomando en cuenta esas propiedades. A pesar que la mayoría de
cosas que conocemos son datos, es muchísimo mejor llamarlos información.
LA INFORMACION
5 Se ha comprobado recientemente que los sentimientos son datos, ya que tienen propiedades y son factibles
de ser medidos como en el caso de una sesión con un psicólogo.
8
INTRODUCCION
También es un dato pero la diferencia está en que sabemos su significado. Aquí es
donde radica la diferencia del concepto: cualquier cosa es un dato, pero si sabemos que
significa lo ubicaremos dentro de la categoría de la información.
Durante nuestra vida, escuchamos palabras o vemos cosas que solamente son
datos. Por ejemplo, la palabra Tesserak (para la mayoría solo es un dato) o el objeto de
estudio quanto (será información solo para algunos o algunas). Si deseas que deje de
ser un simple dato para tí necesitas averiguar su significado, cuando lo hayas hecho se
convertirá en Información.
De igual manera, la escritura jeroglífica egipcia permaneció como un simple dato y
no como información durante cientos de años, hasta que durante la campaña de
Napoleón a Egipto, el arqueólogo francés Champollion encontró un piedra que contenía
escritura jeroglífica y griega. Con la ayuda de esa piedra a la que se le llamó Piedra
Roseta, Champollion pudo descifrar y establecer el significado. Con su aporte, la
escritura jeroglífica dejo de ser un dato y pasó a convertirse en información para toda la
humanidad.
Lo que puede ser solo un dato para algunos puede ser información para nosotros
o viceversa: lo que es dato para nosotros es información para otros.
ζVolviendo a la explicación original de porqué la informática es ciencia, tenemos ya
al sujeto de estudio (analista) y el objeto de estudio (dato y/o información). Ahora, los
procesos
de
observación,
experimentación,
hipótesis,
comprobación
y
teoría
se
desenvuelven sobre ellos como en cualquier otra ciencia. Por ejemplo:
La matrícula en una universidad o instituto es un proceso muy complejo que
puede comprender cientos de personas y grandes cantidades de información, sobretodo
si este proceso es manual: se forman muchas colas, se pierden papeles, los alumnos se
confunden en aulas y cursos y todo ello ocasiona malestar. Un sujeto de estudio en
informática (analista-programador) verifica que el objeto de estudio (proceso de
matrícula) es bastante lento y ocasiona muchos errores debido a que justamente todo se
hace en forma manual. En este momento está utilizando la observación del fenómeno y
tratará de encontrarle alternativas de solución. El analista propone automatizar el
proceso, por lo que se dedica a desmenuzar los pasos del proceso en mención. Utilizando
la experimentación, diseña varias alternativas que pueden permitir agilizar las
matrículas, entre ellas, ha escogido la matrícula online, un procedimiento con el cual el
alumno sólo tendrá que ingresar a la página web del instituto o universidad, ingresar sus
datos por formulario en forma correcta y luego, utilizando un número de cuenta para
9
INTRODUCCION
pagos en línea pagar directamente el monto de la matrícula sin necesidad de apersonarse
al instituto o universidad. Sólo debe venir para el inicio de clases con una compia
impresa del código autogenerado de pago o mencionarlo verbalmente en el local
institucional, comprobar si sus datos existen y punto. En este momento se puede
mencionar que hay un proceso, un sistema hipotético que puede ayudar al analistaprogrmador a resolver el problema. Durante un tiempo se experimenta este proceso de
matrículas online y se comprueba como beneficioso: las colas han disminuido
exageradamente, ya no hay confusión en los trámites y curiosamente, el número de
alumnos ha aumentado debido a la facilidad del desarrollo del proceso. La labor del
analista ha concluido.
Estudiante
Sujeto de Estudio:
Analista
Observación:
El proceso es
defectuoso
Cursos
Formulario
Aulas
Pago por
matrícula
Objeto de Estudio: Proceso de
matrícula: Largas colas, quejas,
extravío de papeles, desorden. El
alumno tiene que realizar los trámites
personalmente.
Estudiante
Cursos
Web
Experimentación:
Matrícula on line
Aulas
Formulario
Comprobación: La matrícula online desaparece las
largas colas y el desorden. El alumno puede realizar
los trámites usando una página web.
NUEVO SISTEMA DE MATRICULAS
ONLINE
Pago por
matrícula
SURGIMIENTO DE LOS COMPUTADORES
Los computadores propiamente dichos nos acompañan desde hace unos 60 años
aproximadamente, pero sus raíces van mucho más allá. En primer término, debemos
tener en cuenta que para que algo sea inventado, antes hay que concebirlo, es decir,
tener la idea de lo que debemos o queremos inventar. Para tal fin, tendremos que
mencionar a Charles Babbage y Ada Lovelace, ambos, conceptualizadores de un
computador a la que llamaron máquina analítica.
CHARLES BABBAGE Y ADA LOVELACE
La máquina analítica a
Charles Babbage
Con la ayuda de su colaboradora
la que se referían Charles
Ada Lovelace, Babbage diseñó la
Babbage y Ada Lovelace fue el
máquina analítica, muy similar a
primer computador concebido.
un computador o
computadora
moderna, dotada incluso de una
La concepción la hizo en sí,
Charles
memoria. Babbage, profesor de matemáticas en la Cambridge
University en el siglo XIX. Babbage era un genio excéntrico
que el público conocía por su guerra contra los músicos callejeros. Según calculó el
mismo, éstos le robaban un 25% de su potencial productivo y luchó para que fueran
proscritos. Pero Babbage era más que un excéntrico; entre sus numerosos inventos se
cuentan la llave maestra, el “quitavacas” de las locomotoras, el velocímetro y... el
computador.
La idea que tuvo Babbage sobre un computador nació porque la elaboración de
tablas matemáticas era realmente frustrante por ser un proceso tedioso y propenso a
errores. En 1823 solicitó y obtuvo una subvención del gobierno británico para crear una
máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.
Al
mismo tiempo, Joseph Marie Charles Jacquard, fabricante de tejidos francés, había
ideado un telar que podía reproducir automáticamente patrones de tejidos leyendo la
información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al
enterarse de ello, Babbage abandonó la máquina de diferencias y se dedicó a un proyecto
más ambicioso: una máquina analítica que permitiera hacer cálculos de 20 dígitos con
tarjetas perforadas.
Ada Lovelace, hija del poeta Lord Byron y con grandes dotes matemáticas,
conoció a Babbage y quedo fascinada por el concepto de la máquina analítica. Se formó
un triángulo amoroso: Babbage estaba enamorado de ella y ella estaba enamorada de la
11
INTRODUCCION
máquina de Babbage. Lovelace se hizo socia de Babbage llegando a publicar un artículo
donde incluía el primer programa para computador.
Babbage
y
Lovelace
fueron
víctimas
de
una
obsesión por terminar la máquina analítica. Sin embargo,
el gobierno británico, al cabo de un tiempo, retiró su
apoyo económico por considerarlo costoso e innecesario.
Entonces, Babbage y Lovelace se dieron en apostar a los
caballos y empeñar joyas para reunir el dinero necesario,
pero sin lograrlo. La tecnología de la época no bastaba
para hacer realidad sus ideas. El computador existía ya en
la mente humana pero no llegaría sino hasta cien años
después...
Máquina analítica de Babbage
EL COMPUTADOR
LA COMPUTACION ANTES DE LOS COMPUTADORES
Ya se había mencionado en el capítulo anterior que la computación en sí existe
muchísimo antes de la invención del computador, puesto que si hablamos de cualquier
forma de cálculo estamos hablando de computar, es decir, hacer computación.
Hay que considerar que los computadores surgen por
la necesidad que tenían los seres humanos de cuantificar. Al
principio, a los hombres les bastaba con contar con los
dedos o, por decir, con piedras. Sus herramientas de conteo
En
1642,
Blaise
Pascal
desarrolló una calculadora
mecánica para facilitarle el
trabajo a su padre, un
funcionario fiscal francés. Los
números se introducen en las
ruedas metálicas delanteras
y las soluciones aparecen en
las ventanas superiores.
evolucionaron a la par de las culturas. El ábaco, el sistema
numérico arábigo y el concepto del cero son tres de los
primeros ejemplos para calcular. Pronto esas ideas se
difundieron y tuvieron un impacto inmediato y profundo en la
sociedad. A medida que avanzaba el tiempo fueron surgiendo
diversas herramientas antecesoras de los computadores, tal
como la Pascalina del siglo XVII o el telar automático del siglo XIX. Todas ellas ayudaban
en el proceso de cómputo sin que existiera aún un computador.
EVOLUCION DE LOS COMPUTADORES
Ada Lovelace dijo algún día que los computadores compondrían música, pero
cuando los empezaron a inventar se tenían metas más modestas como el del cálculo
aritmético simple.
Como casi la mayoría de cosas en el universo, los computadores también han
sufrido evolución, es decir, cambios sustanciales que han mejorado su eficiencia,
disminuido sus costos y facilidad de uso. Podemos ubicar el origen de los computadores
dentro del marco de la Segunda Guerra Mundial. Se dice que el primer computador listo
para construirse y emplearse para fines bélicos tuvo sede en la Alemania Nazi. Konrad
Zuse, en 1939 completó el primer computador digital programable de propósito general,
este computador se construyó con relevadores eléctricos6. En 1941 Zuse presentó al
gobierno alemán un proyecto para construir un computador más rápido que utilice tubos
de vacío y que ayude al ejército alemán a agilizar la operatividad en la logística. La
6
Generadores y transportadores de electricidad.
EL COMPUTADOR
13
cúpula militar nazi rechazó el proyecto por considerar que su poderosa Werhmacht y la
Luftwaffe podrían ganar rápidamente la guerra.
En el mismo año 39 John Atanasoff de la Iowa State University de Estados
Unidos junto con su colega Berry crearon el computador ABC (Atanassof – Berry
Computer). Su universidad no se interesó por el proyecto y no le ayudó en la patente.
Atanasoff entonces decidió ir a la International Bussiness Machine (IBM) y venderles
el proyecto para desarrollarlo. IBM le respondió: “Nunca nos interesaremos por una
máquina de cómputo electrónica”.
En otro caso, J. Presper Eckert y John Mauchly fueron convocados por el ejército
de Estados Unidos para diseñar una máquina que calculara tablas de trayectoria para
cañones. La máquina tenía la finalidad de acelerar la producción de dichos cañones y de
aplicar logística en misiones de desembarco. El resultado fue la ENIAC (Electronical
Numerical Integrator and Computer – Computador e Integrador Numérico Electrónico). El
ENIAC pesaba 30 toneladas, 18 mil tubos de vacío que presentaban averías cada siete
minutos. Operaba a una velocidad de una calculadora de bolsillo actual. Sin embargo,
este computador se terminó 2 meses después de que las bombas atómicas cayeron sobre
Hiroshima y Nagasaki, siendo su uso prácticamente nulo.
Finalmente, el profesor Howard Aiken de la universidad de Harvard construyó en
1944 la Mark I con el apoyo, por fin de un millón de dólares aportados por IBM. El Mark
I era un coloso de 15 metros de largo por dos y medio de altura. Era 6 veces más veloz
que un humano en realizar cálculos matemáticos pero más lento que una calculadora de
bolsillo actual que cuesta 5 dólares.
GENERACIONES DE COMPUTADOR
La evolución de los computadores se divide en generaciones, cada una de ellas
presenta características que las diferencian, aunque la más saltante de todas es el
componente principial de fabricación de las mismas. Las generaciones son cuatro a
saber:
Primera Generación (Década de los 40)
En esta generación había una gran desconocimiento de las capacidades de las
computadoras, puesto que se realizó un estudio en esta época que determinó que con
14
EL COMPUTADOR
veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de
procesamiento de datos.
Esta generación abarcó la década de los cuarenta. Estas máquinas tenían las
siguientes características:

Construidas por medio de tubos de vacío.

Programadas en lenguaje de máquina (código binario).

Grandes y costosas (millones de dólares).

Cantidad promedio de operarios: 40

Almacenamiento: no existe

Ingreso / Salida de Datos: Tarjetas perforadas y cableado

Ejemplos: ENIAC, Mark I, ABC.
Computador ENIAC
Tubo de vacío
Segunda Generación (Década de los 50)
Cerca de la década de 1950, las computadoras seguían evolucionando, se reducía
su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a
definir la forma de comunicarse con las computadoras, que recibía el nombre de
programación de sistemas. Las características de la segunda generación son las
siguientes:

Construidas con circuitos de transistores.

Se programan en nuevos lenguajes llamados lenguajes de medio nivel.

Reducción de tamaño y son de menor costo (cientos de miles de dólares).
15
EL COMPUTADOR

Cantidad promedio de operarios: 20

Almacenamiento: Cintas magnéticas

Ingreso / Salida de Datos: Tarjetas perforadas y cableado

Ejemplos: UNIVAC7, IBM 704 y Burroughs 220.
En esta época aparecen muchas compañías y las computadoras eran bastante
avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad
de Manchester (Inglaterra).
Algunas de estas computadoras
de
segunda
generación
se
programaban con tarjetas perforadas
y otras más por medio de cableado
en un tablero. Los programas eran
hechos a la medida por un equipo de
expertos:
analistas,
diseñadores,
programadores y operadores que se
manejaban como una orquesta para
resolver los problemas y cálculos
solicitados por la administración. El
usuario final de la información no
tenía
contacto
directo
con
las
computadoras. Esta situación en un
principio se produjo en las primeras
UNIVAC
La primera computadora electrónica comercial fue también
la primera capaz de procesar información numérica y
textual. Diseñada por J. Presper Eckeret y John Mauchly,
cuya empresa se integró posteriormente en Remington
Rand, la máquina marcó el inicio de la era informática. En
la ilustración vemos a la UNIVAC. La computadora central
está al fondo, y en primer plano puede verse al panel de
control de supervisión. Remington Rand entregó su primera
UNIVAC a la Oficina del Censo de Estados Unidos en 1951.
computadoras personales, pues se
requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo
tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen
número de horas escribiendo instrucciones, "corriendo" el programa resultante y
verificando y corrigiendo los errores o bugs8 que aparecieran. Además, para no perder el
"programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte
(con cintas magnéticas), pues en esa época no había discos flexibles y mucho menos
discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el
programa.
El UNIVAC fue el primer computador puesto a la venta.
Error dentro de la codificación o en la lógica de un programa o del hardware que provocan funcionamiento
deficiente en el sistema. Los bugs pueden ser incómodos pero no dañan información, eso sí, pueden ocasionar
muchas molestias. Hay bugs menores como por ejemplo la desaparición del puntero del mouse como bugs muy
graves que “cuelgan” la totalidad del sistema operativo.
7
8
EL COMPUTADOR
16
Tercera generación (Década de los 60 y mediados de los 70)
Con los progresos de la electrónica y los avances de comunicación con las
computadoras en la década de los 1960, surge la tercera generación de las
computadoras. Las características de esta generación fueron las siguientes:

Fabricación electrónica basada en circuitos integrados (chips).

Su manejo es por medio de los lenguajes de control de los sistemas operativos.

Se siguen programando en lenguajes de nivel medio, aparecen muchos.

Reducción exagerada de tamaño y costo (miles de dólares).

Cantidad promedio de operarios: 1. Surgen las PC (Computadores Personales).

Almacenamiento: Cintas magnéticas y disquetes (8 ½ pulgadas).

Ingreso / Salida de Datos: Teclado y monitor.

Ejemplos: IBM 370, UNIVAC 1160, Kaypro.
A mediados de la década de 1970, aparecen en el mercado las computadoras de
tamaño mediano, o minicomputadoras que no son tan costosas como las grandes
(llamadas también como mainframes que significa también, gran sistema), pero
disponen de gran capacidad de procesamiento.
En esta generación el usuario de las computadoras va cambiando y evolucionando
con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la
PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el
concepto de human interface que es la relación entre el usuario y su computadora. Se
habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para
reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la
muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la
manera en que el usuario pase menos tiempo capacitándose y entrenándose y más
tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que
orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios
expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de
funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente
desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo
que en pocas semanas hacen de cualquier persona un experto en los programas
comerciales. Pero el problema "constante" es que ninguna solución para el uso de los
programas es "constante". Cada nuevo programa requiere aprender nuevos controles,
nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está
17
EL COMPUTADOR
acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una
relación amistosa entre el usuario y la PC.
Cuarta Generación (Mediados de los 70 hasta la actualidad)
Aquí
aparecen
los
microprocesadores
que es un
gran
adelanto de la
microelectrónica, son circuitos integrados de alta densidad y con una velocidad
impresionante. Las microcomputadoras con base en estos circuitos son extremadamente
pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las
computadoras personales que han adquirido proporciones enormes y que han influido en
la sociedad en general sobre la llamada "revolución informática". Las características
de las computadoras de cuarta generación son:

Fabricación electrónica basada en microchips (micro circuitos integrados).

Manejo por medio de los lenguajes de alto nivel, sistemas operativos de redes,

Lenguajes de alto nivel, programación orientada a objetos.

Reducción microscópica de tamaño (nanotecnología) y costo (cientos de dólares).

Almacenamiento: Discos duros, disquetes, discos compactos, etc.

Ingreso / Salida de Datos: Teclado, escáner, monitor, etc.

Redes neuronales.

Ejemplos: Serie Intel (Pentium III, IV), AMD (Athlon), Cyrix.
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de
uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda
compañía más grande del mundo, antecedida tan solo por IBM; y ésta por su parte es
aún de las cinco compañías más grandes del mundo.
Circuito integrado
Este circuito integrado, un
microprocesador F-100, tiene
sólo 0,6 cm2, y es lo bastante
pequeño para pasar por el ojo
de una aguja.
En 1981 se vendieron 800
mil computadoras personales, al
siguiente subió a 1 millón 400 mil.
Entre 1984 y 1987 se vendieron
alrededor de 60 millones de computadoras personales, por lo
que no queda duda que su impacto y penetración han sido
enormes. Con el surgimiento de las computadoras personales,
el software y los sistemas que con ellas de manejan han tenido
un considerable avance, porque han hecho más interactiva la
comunicación con el usuario. Surgen otras aplicaciones como los procesadores de
palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias
18
EL COMPUTADOR
del Software de las computadoras personales crecieron con gran rapidez, Gary Kildall y
William Gates se dedicaron durante años a la creación de sistemas operativos y métodos
para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M
y de los productos de Microsoft).
No todo son microcomputadoras, por supuesto, los grandes sistemas continúan en
desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los
grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y
especiales,
pero
sería
equivocado
suponer
que
las
grandes
computadoras
han
desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las
esferas de control gubernamental, militar y de la gran industria. Las enormes
computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, son capaces de
atender a varios cientos de millones de operaciones por segundo. Este tipo de
computadores son necesarios para bancos o financieras por ejemplo.
Quinta Generacion?
Mucho se ha dicho de que nos encontramos ya en la quinta generación de
computadoras. Pero si nos fijamos un poco nos daremos cuenta de que las generaciones
en el caso de computadores se determinan según el elemento principal de construcción
de la misma. En el caso de la primera generación el componente primordial eran los
tubos de vacío; en la segunda, los transistores; en la tercera, los circuitos integrados
(chips); en la cuarta, los microchips y en la quinta... que componente?... ninguno,
todavía se siguen construyendo con microchips.
De hecho, la construcción de computadores con microchips ha llegado a tal grado
que aparentemente nos hayamos con máquinas cuyos componentes parecen ser de
ciencia ficción, pero no, no es así, aún la humanidad sigue construyendo computadoras
con los microchips, lo que nos sitúa todavía en la cuarta generación.
Lo que si sabemos es que ya estamos cerca de una quinta generación, lo que
faltaría por determinar sería el elemento primordial para tal fin. Algunos mencionan que
esta quinta generación se basaría en microprocesadores engendrados en base a la
ingeniería genética, procesadores combinados con el poder de neuronas biológicas de
ciertos animales. La velocidad de procesos de una neurona puede ser mayor que el
procesador más potente del mercado con ayuda de la genética. Otra propuesta va por el
19
EL COMPUTADOR
camino de la utilización del mundo subatómico9 y la teletransportación10. Ambas
tecnologías
permitirían
construir
microprocesadores
que
transmitan
información
mediante el uso de quantos . El quanto es más pequeño y más veloz en su
11
desplazamiento que los átomos en sí, similar a la velocidad de la luz, por lo tanto la
información puede viajar a dicha velocidad y seríamos capaz de construir computadores
de velocidades inimaginables. Aparentemente ésta última opción es la más cercana,
puesto que los científicos ya han desarrollado y descubierto la física del comportamiento
de los quantos y desde el 2001 conocemos la teletransportación. No será raro entonces
que dentro de poco conozcamos a la primera computadora quántica y el inicio de una
quinta generación.
TAXONOMIA DE COMPUTADORES
La taxonomía es la disciplina que trata acerca de los métodos, principios y fines de
la clasificación. En el caso de los computadores también podemos aplicar taxonomía, la
que puede variar según la funcionalidad o tamaño del computador
TAXONOMIA SEGÚN COMPORTAMIENTO
Según el comportamiento, en la actualidad se utilizan dos tipos principales de
computadores:
computadora
analógicos
suele
y
utilizarse
digitales.
para
Sin
referirse
embargo,
el
término
exclusivamente
al
computador
tipo
digital.
o
Los
computadores analógicos aprovechan la similitud matemática entre las interrelaciones
físicas de determinados problemas y emplean circuitos electrónicos o hidráulicos para
simular el problema físico. Los computadores digitales resuelven los problemas
realizando cálculos y tratando cada número dígito por dígito.
Las instalaciones que contienen elementos de computadores digitales y analógicos
se denominan computadores híbridos. Por lo general se utilizan para problemas en los
que hay que calcular grandes cantidades de ecuaciones complejas, conocidas como
integrales de tiempo. En un computador digital también pueden introducirse datos en
forma analógica mediante un convertidor analógico digital, y viceversa (convertidor
digital a analógico).
El mundo subatómico comprende elementos más pequeños que el átomo y que se rigen con leyes físicas
especiales.
10
Método con el cual se separan todos los átomos de un objeto y se los traslada a una velocidad cercana a de
la luz en otro lugar para integrarse en su forma original.
11
Cantidad elemental de energía proporcional a la frecuencia de la radiación a la que pertenece.
9
20
EL COMPUTADOR
Computadores analógicos
El computador analógico es un dispositivo electrónico o hidráulico diseñado para
manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o
presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo
analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas
especialmente calibradas para
Regla de cálculo
facilitar
la
multiplicación,
la
división y otras funciones. En
el típico computador analógico
electrónico,
las
entradas
se
convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de
circuito de diseño especial. Las respuestas se generan continuamente para su
visualización o para su conversión en otra forma deseada.
Computadores digitales
Todo lo que hace un computador digital se basa en una operación: la capacidad de
determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el computador
puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o
cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la
velocidad con la cual el computador realiza este acto tan sencillo lo que lo convierte en
una maravilla de la tecnología moderna. Las velocidades del computador se miden en
megahercios, o millones de ciclos por segundo. Un computador con una velocidad de
reloj de 100 MHz, velocidad bastante representativa de un microcomputador o
microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por
segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200
millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en
aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de
ciclos por segundo.
La velocidad y la potencia de cálculo de los computadores digitales se incrementan
aún más por la cantidad de datos manipulados durante cada ciclo. Si un computador
verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente
dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que
OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados
como una sola unidad, el computador aumenta el número de operaciones que puede
reconocer en cada ciclo. Por ejemplo, un computador que verifica dos conmutadores cada
21
EL COMPUTADOR
vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de
las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador:
OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los computadores de la
década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir,
podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo. Un
grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles
de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una
instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un
carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar
datos binarios, en este caso el número decimal 210 (véase Sistemas numéricos), o bien
estar
indicando
al
computador
que
compare
los
datos
almacenados
en
estos
conmutadores con los datos almacenados en determinada ubicación del chip de memoria.
El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de
datos ha permitido incrementar la velocidad de los computadores. La colección completa
de configuraciones reconocibles, es decir, la lista total de operaciones que una
computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones.
Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de
instrucciones, continúa incrementándose a medida que avanza el desarrollo de los
computadores digitales modernos.
TAXONOMIA SEGÚN EL TAMAÑO
Esta taxonomía o clasificación de computadores es hasta cierto punto algo
inconsistente puesto que el tamaño no necesariamente determina la potencia del mismo;
el problema radica en que el tamaño es una propiedad que salta a la vista y es una de las
clasificaciones más sencillas de llevar a cabo. Según el tamaño podremos determinar:
Macrocomputadores
Macrocomputador CRAY -1
Son computadores cuyas dimensiones nos hacen
recordar a los computadores de primera generación,
aunque su capacidad es miles de veces mayor a la de
éstos. Se les conoce también como mainframes. Estos
computadores no están a la vista del público en general, se
hayan “escondidos” en salas con clima controlado. La
principal función de los macrocomputadores es almacenar
información de enormes bases de datos, como en el caso
de los bancos, los registros de identificación de los habitantes de los países, bases de
22
EL COMPUTADOR
datos de personas con antecedentes penales, hospitales, etc. Los macrocomputadores
son capaces de comunicarse en forma simultánea con otros computadores de atención
directa como en el caso del operario de la ventanilla de un banco. Cada vez que
solicitamos un depósito o retiro en una cuenta bancaria, un macrocomputador interviene
en la operación, nosotros sólo vemos el resultado de dicha operación en el computador
del operario o en el cajero automático.
A los macrocomputadores se les ha convenido llamar en tiempos actuales como
servidores o servers cuando están conectados a una red de datos y se dedican a
distribuir y almacenar información entre otros servidores o computadores de menor
tamaño.
Microcomputadores
Los microcomputadores son aquellos de uso más común, los del tipo PC
(Computadora Personal) y que generalmente se usan para llevar a cabo actividades de la
vida cotidiana.
Estos computadores son muchísimo más pequeños y baratos que los
macrocomputadores y algunos son de tal potencia que pueden reemplazar las acciones
que normalmente llevaría un macrocomputador. De hecho, muchas medianas y pequeñas
empresas utilizan microcomputadores potentes como si de verdaderos servidores se
tratase12. El microcomputador, cuando no hace las veces de servidor puede cumplir la
labor de una estación de trabajo o workstation. La estación de trabajo cumple la
función de solicitar datos al servidor, procesarlos y luego devolverlos al mismo. Son
comunes las estaciones de trabajo en ventanillas de bancos, cajeros automáticos,
estaciones de policía, centros de salud, etc.
Computadores Portatiles
El computador portátil viene a ser una variante actual de los
microcomputadores, que como su nombre lo indica tiene la ventaja de
ser trasladado de un lado a otro con suma facilidad. Entre los
computadores portátiles destacan las laptop, las notebooks y las
PDA o computadores de bolsillo. Este tipo de computadores son
novedosos y generalmente lo utilizan personas cuya actividad exige un
PDA
traslado continuo de un lugar a otro, pero sin perder las facilidades de
Hace algunos años se acuñaba otro término en la clasificación llamado minicomputador, pero el
crecimiento y capacidades de los microcomputadores ahora es tal, que el minicomputador como tal ha dejado
de existir.
12
23
EL COMPUTADOR
trabajo con un computador. A pesar de ser muchísimos más pequeños que los
microcomputadores comunes, su precio es tan igual o incluso más elevado, puesto que la
tecnología de fabricación tiene costos muy altos.
Finalmente, en lo que es un computador hay que recalcar la división clásica de
hardware y software, no dentro de la taxonomía en sí, sino de las grandes 2 partes en
que se divide cualquier computador sea cual fuere su tamaño o su funcionalidad.
Laptop
CONCEPTOS BASICOS DE HARDWARE
Se entiende al hardware como todo componente físico que pertenece al
computador. Cuando hablamos de algo físico, debemos considerar algo del que podemos
percatarnos utilizando nuestros sentidos: podemos tocarlos, verlos, olerlos inclusive. De
hecho lo más acequible en observar del computador es su hardware. El hardware va a
estar dividido en: la unidad central y los periféricos.
EL PROCESO DE COMPUTO
El proceso de cómputo se lleva a cabo principalmente con ayuda del hardware,
aunque de hecho, no podemos desdeñar la tremenda importancia que sobre él lleva a
cabo el software, esto lo trataremos más adelante.
Se entiende como proceso de cómputo como el procedimiento con el cual el
computador ingresa datos, los procesa y luego los visualiza en una solución. Este
procedimiento fue concebido por el propio Charles Babbage al momento de desarrollar su
máquina analítica y es el mismo que se utiliza para que los computadores funcionen hoy
en día. El proceso de cómputo se lleva a cabo con los dispositivos de hardware: los
periféricos ingresan datos, lo transportan a la unidad central y luego son devueltos a
otros periféricos que permiten visualizar o presentar los datos.
Ingreso de
Información
Procesamiento
Salida de
Información
MAGNITUDES DE LA INFORMACION
Magnitud es la propiedad de los cuerpos que consiste en la facilidad de ser
medidos. Nosotros, por ejemplo tenemos una magnitud que se llama talla y para ello
contamos con un sistema de medida llamada metro. Podemos medir nuestra inteligencia
con el sistema de coeficiente intelectual. El volumen de una piscina se mide con metros
cúbicos y así todos los objetos de la naturaleza.
Para el caso de las computadoras, existe también una magnitud, pero dicha
magnitud no mide distancias, ni peso ni capacidad, medirá información.
EL BYTE
25
CONCEPTOS BASICOS DE HARDWARE
El byte será el nombre de la unidad de medición de información. Toda unidad de
medida tiene sus múltiplos y submúltiplos. Compararemos al metro con el byte dentro de
una tabla considerando sus múltiplos y submúltiplos.
SUBMULTIPLOS
MULTIPLOS
milímetro centímetro decímetro metro Decámetro Hectómetro Kilómetro Megámetro
0,001 m
0,01 m
0,1 m
1m
10 m
100 m
1 000 m
1 000 000
m
Como podemos ver, el metro tiene su sistema de medida bien definido, ahora
observemos el comportamiento del byte de la misma forma:
SUBMULTIPLO
Bit
8 bits
MULTIPLOS
Kilobyte Megabyte Gigabyte Terabyte
1 024 b
1024 Kb 1024 Mb 1024 Gb
Byte
1b
Si nos damos cuenta, la unidad de información, el byte va a constar de 8 bits; el
byte será el equivalente a un único carácter, como puede ser una letra, un número o un
signo de puntuación. Como el byte representa sólo una pequeña cantidad de información,
la cantidad de memoria y de almacenamiento de una máquina suele indicarse en
kilobytes (1.024 bytes), en megabytes (1 048 576 bytes) o en gigabytes (1 073 741 824
bytes).
PRINCIPALES COMPONENTES DE UN COMPUTADOR
En realidad, un computador digital no es una única máquina, en el sentido en el
que
la
mayoría
de
la
gente
considera a los computadores. Es
un sistema compuesto de hasta
cinco elementos diferenciados: el
CPU;
periféricos
de
entrada;
periféricos de salida; dispositivos
para almacenamiento primario y
secundario
y
una
red
de
comunicaciones, denominada bus,
que enlaza todos los elementos del
sistema y conecta a éste con el
mundo exterior.
Principales Elementos de
hardware
CONCEPTOS BASICOS DE HARDWARE
26
A todo lo anterior es lo que muchas veces suele llamarse Sistema informático;
Un sistema informático suele estar compuesto por una unidad central de proceso (CPU),
dispositivos de entrada, dispositivos de almacenamiento y dispositivos de salida. La
CPU13 incluye una unidad aritmético-lógica (ALU), registros, sección de control y bus
lógico. La unidad aritmético-lógica efectúa las operaciones aritméticas y lógicas. Los
registros almacenan los datos y los resultados de las operaciones. La unidad de control
regula y controla diversas operaciones. El bus interno conecta las unidades de la CPU
entre sí y con los componentes externos del sistema. En la mayoría de las computadoras,
el principal dispositivo de entrada es el teclado. Dispositivos de almacenamiento son los
discos duros, flexibles (disquetes) y compactos (CD). Dispositivos de salida que permiten
ver los datos son los monitores e impresoras. Todo ello lo veremos con detalles mucho
más adelante.
13
Central Proccesing Unit / Unidad Central de Procesamiento
CONCEPTOS BASICOS DE SOFTWARE
Puede definirse como software al conjunto de instrucciones responsables de que el
hardware (la máquina) realice su tarea. Como concepto general, el software puede
dividirse en varias categorías basadas en el tipo de trabajo realizado.
CATEGORIAS DE SOFTWARE
El software tiene diversas finalidades desde el punto de vista del usuario, y según
esas finalidades podremos agruparlos en los siguientes:
SISTEMAS OPERATIVOS
Es el software básico y primordial que controla una computadora. El sistema
operativo tiene tres grandes funciones: coordina y manipula el hardware del computador
o computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el
mouse; organiza los archivos en diversos dispositivos de almacenamiento, como discos
flexibles, discos duros, discos compactos o cintas magnéticas, y gestiona los errores de
hardware y la pérdida de datos. En otras palabras y resumiendo, el sistema operativo se
dedica a administrar el computador.
Existen una amplia gama de sistemas operativos como por ejemplo el D.O.S.
(Disk Operating System); sistema operativo de interfaz textual o el Mac OS X, sistema
operativo de la empresa Apple con interfaz gráfica. Podemos diferenciar también a los
sistemas operativos para monousuarios o estaciones de trabajo así como sistemas
operativos para administración de Redes. Los primeros se instalan en computadores
destinados a utilizarse como terminales y los segundos para computadores cuya
funcionalidad será la de un servidor de datos. Ejemplos de sistema operativo para redes
son: Windows NT, Windows 2000 Server, Linux, Unix, etc.
LENGUAJES DE PROGRAMACION
Es el tipo de software que brinda instrucciones específicas a las computadoras ya
sea en forma de sistemas operativos o de aplicativos. Dicho de otro modo, el lenguaje de
programación viene a ser el corazón y madre de todo el software existente. Los sistemas
operativos están hechos por un lenguaje de programación y curiosamente, éstos
lenguajes de programación, crean a su vez, otros lenguajes de programación.
28
CONCEPTOS BASICOS DE SOFTWARE
Los lenguajes de programación pueden dividirse en 3 niveles: bajo nivel o
lenguajes de código máquina; nivel medio o lenguajes de compilación idiomática y por
último los lenguajes de alto nivel o de programación orientada a objetos (POO). Ejemplos
de lenguajes de primer nivel son: Assembler; de nivel medio: Fortran, Cobol, Basic; de
alto nivel: Java, Visual Basic, Java.
APLICATIVOS
Los aplicativos son ese tipo de software que se dedican principalmente a la
productividad, es decir, producir documentos de uso cotidiano para los usuarios. Los
diversos aplicativos existentes en el mercado se pueden clasificar en los siguientes:
Procesadores de Textos (Microsoft Word, Corel WordPerfect, Lotus WordPro, WordStar);
Hojas de Cálculo (Microsoft Excel, Corel Quattro Pro, Lotus 1-2-3); Generadores de Bases
de Datos (Microsoft Access, Paradox, Dbase); Diseñadores de Presentación (Microsoft
Power Point, Corel Presentation, Harvard Graphics); Diseñadores Gráficos (Corel Draw,
Adobe Illustrator, Macromedia Fireworks); Diseñadores Web (Microsoft FrontPage,
Macromedia Dreamweaver, Adobe GoLive); Diseñadores Web Multimedia (Macromedia
Flash);
Diseñadores
Multimedia
(Macromedia
Director,
Macromedia
Administradores de Bases de Datos (Oracle, SQL Server);
Authorware);
Editores de Sonido
(SoundForge, CubaseX, Cakewalk Pro Audio, Pro Tools); y así, toda una amplia gama de
software aplicativo...
UTILITARIOS
Son los programas que se dedican a darle mantenimiento al sistema operativo y a
todo el software dependiente de él. Entre los utilitarios podemos mencionar a los
antivirus, los que se dedican a limpiar los virus de nuestro sistema. También existen una
serie de programas que brindan un mayor desempeño a los discos duros o inclusive
reparan sectores dañados en los mismos. Un ejemplo dentro de Windows es el Scandisk
y el Defragmentador de Disco.
ENTRETENIMIENTO
Es el tipo de software que prácticamente convierte al computador en un juguete,
en un medio para entretenerse. Existen numerosos programas de juegos y que han ido
evolucionando en el sentido de que cada vez explotan al máximo las capacidades
gráficas, auditivas y de interactividad del computador hacia el usuario. Una categoría de
juego que los programadores pueden tomar en cuenta son los juegos de estrategia.
CONCEPTOS BASICOS DE SOFTWARE
29
Estos juegos ayudan a incrementar la lógica del usuario y mejorar su capacidad al
proyectarse para una jugada. Esta capacidad se utiliza mucho al momento de crear
sistemas de información bajo lenguajes de programación.
Hasta el momento sólo hemos estado observando características generales del software.
Debemos tomar en cuenta que cada software en especial cumple con nuestras exigencias
debido a que se han seguido meticulosamente todos los pasos a considerar para tal o
cual fin. Ese proceso se viene a llamar algoritmo.
EL ALGORITMO
Un algoritmo es el conjunto de operaciones y procedimientos que deben seguirse
para resolver un problema. La palabra "algoritmo" deriva del nombre latinizado del gran
matemático árabe Mohamed Ibn Moussa Al Kow Rizmi, el cual escribió sobre entre los
años 800 y 825 su obra Quitab Al Jabr Al Mugabala, donde se recogía el sistema de
numeración hindú y el concepto del cero. Fue Fibonacci, el que tradujo su obra al latín y
la inició con las palabras: Algoritmi dicit.
DIFERENCIA ENTRE EL LENGUAJE ALGORÍTMICO Y EL INFORMÁTICO.
El lenguaje algorítmico es aquel por medio del cual se realiza un análisis previo del
problema a resolver y encontrar un método que permita resolverlo. El conjunto de todas
las operaciones a realizar, y el orden en el que deben efectuarse, se le denomina
algoritmo.
El lenguaje informático es aquel por medio del cual dicho algoritmo se codifica a
un sistema comprensible por el computador o computadora. Este tipo de lenguaje es más
cercano a la máquina que al ser humano y podemos distinguir distintos tipos
dependiendo de la proximidad a la maquina. Se denomina lenguaje de alto nivel aquel
que es más cercano a la comprensión humana y lenguaje de bajo nivel a aquellos que
son más comprensibles por la máquina. En concreto, nosotros vamos a estudiar un
lenguaje en la frontera de uno de bajo nivel. Es por ello que el 'C' es tan potente y
rápido, pues las funciones principales representan las funciones más básicas del
computador.
CONCEPTOS BASICOS DE SOFTWARE
30
PLANTEAMIENTOS DE PROBLEMAS.
Lo que pretende un algoritmo es sintetizar de alguna forma una tarea, cálculo o
mecanismo antes de ser transcrito al computador. Los pasos que hay que seguir son los
siguientes:
-
Análisis previo del problema.
-
Primera visión del método de resolución.
-
Descomposición en módulos.
-
Programación estructurada.
-
Búsqueda de soluciones parciales.
-
Ensamblaje de soluciones finales.
Un algoritmo sencillo sería el que nosotros utilizamos para levantarnos y tomar
desayuno o para sumar un par de números:
1. Levantarse
2. Asearse
3. Cambiarse de ropa
4. Tomar desayuno
Aparentemente, el algoritmo está perfecto, pero para el caso de un computador esos
pasos son insuficientes. Si deseamos que nuestro algoritmo no contemple errores,
debemos ser exageradamente minuciosos:
1. Despertar
2. Levantarse:
a. Coger la sábana con la mano izquierda y alejarse de todo contacto con
nuestro cuerpo
b. Sobreponer nuestro dorso y colocar nuestros pies sobre el piso, girar 90º a
la derecha.
c. Ponernos de pie
3. Caminar al baño:
a. Ubicar el pie derecho unos 60 cms delante del pie izquierdo manteniendo
distancia paralela y equilibrio del cuerpo.
b. Ubicar el pie izquierdo unos 60 cms delante del pie derecho manteniendo
distancia paralela y equilibrio del cuerpo.
c. Repetir cuantas veces sea necesario hasta llegar al baño
d. Etc, etc, etc.
31
CONCEPTOS BASICOS DE SOFTWARE
Nos podemos dar cuenta claramente que los algoritmos muchas veces resultan
complejos, pero son necesarios para una correcta programación de los computadores.
Para el caso de la informática, los algoritmos pueden llevarse a cabo bajo formato
pseudocódigo o usando diagramas de flujo. Ambos nos ayudan muchísimo al momento
de concebir un programa.
Pseudocódigo
Diagrama de Flujo
Inicio
INICIO
Leer a, b
Si a>b  ? “a es mayor que b”
Leer a,b
Sino
? “b es mayor que a”
Fin_Si
Fin
No
a>b
“b es mayor
Si
que a”
“a es mayor
que b”
FIN
EL MAINBOARD
La "placa base" (mainboard), o "placa madre" (motherboard), es el elemento
principal de todo ordenador, en el que se encuentran o al que se conectan todos los
demás aparatos y dispositivos.
Físicamente, se trata de una "oblea" de material sintético, sobre la cual existe un
circuito electrónico que conecta diversos elementos que se encuentran anclados sobre
ella; los principales son:

el microprocesador, "pinchado" en un elemento llamado zócalo;

la memoria, generalmente en forma de módulos;

los slots o ranuras de expansión donde se conectan las tarjetas;

diversos chips de control, entre ellos la BIOS.
Una placa base moderna y típica ofrece un aspecto similar al siguiente:
Para ver una descripción de cada uno de los elementos, pulse en la imagen sobre
ellos o sobre sus nombres o bien vaya al final de esta página.
FACTORES DE FORMA Y ESTÁNDARES
Las placas base existen en diferentes formas y con diversos conectores para
periféricos. Para abaratar costes permitiendo la intercambiabilidad entre placas base, los
33
EL MAINBOARD
fabricantes han ido definiendo varios estándares que agrupan recomendaciones sobre su
tamaño y la disposición de los elementos sobre ellas.
De cualquier forma, el hecho de que una placa pertenezca a una u otra categoría
no tiene nada que ver, al menos en teoría, con sus prestaciones ni calidad. Los tipos más
comunes son:
ATX
La placa de la foto superior pertenece a este estándar. Cada vez más comunes,
van camino de ser las únicas en el mercado.
Se las supone de más fácil ventilación y menos maraña de cables que las BabyAT, debido a la colocación de los conectores. Para ello, el microprocesador suele
colocarse cerca del ventilador de la fuente de alimentación y los conectores para discos
cerca de los extremos de la placa.
La diferencia "a ojo descubierto" con las AT se encuentra en sus conectores, que
suelen ser más (por ejemplo, con USB o con FireWire), están agrupados y tienen el
teclado y ratón en clavijas mini-DIN como ésta:
. Además, reciben la electricidad
mediante un conector formado por una sola pieza (ver foto superior).
Baby-AT
Fue el estándar absoluto durante años. Define una placa de unos 220x330 mm,
con unas posiciones determinadas para el conector del teclado, los slots de expansión y
los agujeros de anclaje a la caja, así como un conector eléctrico dividido en dos piezas.
Estas placas son las típicas de los ordenadores "clónicos" desde el 286 hasta los primeros
Pentium. Con el auge de los periféricos (tarjeta sonido, CD-ROM, discos extraíbles...)
salieron a la luz sus principales carencias: mala circulación del aire en las cajas (uno de
los motivos de la aparición de disipadores y ventiladores de chip) y, sobre todo, una
maraña enorme de cables que impide acceder a la placa sin desmontar al menos alguno.
Para identificar una placa Baby-AT, lo mejor es observar el conector del teclado, que casi
seguro que es una clavija DIN ancha, como las antiguas de HI-FI; vamos, algo así:
; o bien mirar el conector que suministra la electricidad a la placa, que deberá estar
EL MAINBOARD
34
dividido en dos piezas, cada una con 6 cables, con 4 cables negros (2 de cada una) en el
centro.
LPX
Estas placas son de tamaño similar a las Baby-AT, aunque con la peculiaridad de
que los slots para las tarjetas de expansión no se encuentran sobre la placa base, sino en
un conector especial en el que están pinchadas, la riser card.
De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base, en vez
de perpendiculares como en las Baby-AT; es un diseño típico de ordenadores de
sobremesa con caja estrecha (menos de 15 cm de alto), y su único problema viene de
que la riser card no suele tener más de dos o tres slots, contra cinco en una Baby-AT
típica.
Diseños propietarios
Pese a la existencia de estos estándares, los grandes fabricantes de ordenadores (IBM,
Compaq, Hewlett-Packard...) suelen sacar al mercado placas de tamaños y formas
peculiares, bien porque estos diseños no se adaptan a sus necesidades o por oscuros e
ignotos motivos.
Si usted se está planteando actualizar un ordenador "de marca", tenga en cuenta que
quizá tenga que gastarse otras 5.000 ptas en una caja nueva, a veces por motivos tan
irritantes como que los taladros o el conector de teclado estén a medio centímetro de las
posiciones normales.
De cualquier forma, hasta los grandes de la informática usan cada vez menos estas
placas "a medida", sobre todo desde la llegada de las placas ATX.
LOS COMPONENTES DE LA PLACA BASE
Bien, queda claro que la placa base es dónde se monta el puzzle electrónico de
chips, condensadores, slots... Para ver las piezas una a una, vaya a la siguiente página o
pulse sobre estos hiperenlaces:
Zócalo del microprocesador
Es el lugar donde se inserta el "cerebro" del ordenador. Durante más de 10 años
consistió en un rectángulo o cuadrado donde el "micro", una pastilla de plástico negro
35
EL MAINBOARD
con patitas, se introducía con mayor o menor facilidad; la aparición de los Pentium II
cambió un poco este panorama, introduciendo los conectores en forma de ranura (slot).
Veamos en detalle los tipos más comunes de zócalo, o socket, como dicen los
anglosajones:

PGA: son el modelo clásico, usado en el 386 y muchos 486; consiste en un
cuadrado de conectores en forma de agujero donde se insertan las patitas del chip
por

pura
presión.
Según
el
chip,
tiene
más
o
menos
agujeritos.
ZIF: Zero Insertion Force (socket), es decir, zócalo de
fuerza de inserción nula. El gran avance que relajó la vida
de
los
manazas
aficionados
a
la
ampliación
de
ordenadores. Eléctricamente es como un PGA, aunque
gracias a un sistema mecánico permite introducir el micro
sin necesidad de fuerza alguna, con lo que el peligro de
cargarnos el chip por romperle una patita desaparece.
Apareció en la época del 486 y sus distintas versiones
(sockets 3, 5 y 7, principalmente) se han utilizado hasta que apareció el Pentium
II. Actualmente se fabrican los siguientes tipos de zócalos ZIF:
o
Socket 7 "Super 7": variante del Socket 7 que se caracteriza por poder
usar velocidades de bus de hasta 100 MHz, es el que utilizan los micros
AMD K6-2.
o
Socket 370 o PGA370: físicamente similar al anterior, pero
incompatible con él por utilizar un bus distinto. Dos versiones:
PPGA
(la
más
antigua,
sólo
para
micros
Intel
Celeron
Mendocino) y FC-PGA (para Celeron y los más recientes
Pentium III).
o
Socket A (462): utilizado únicamente por los más recientes
AMD K7 Athlon y por los AMD Duron.
o

Socket 423: utilizado únicamente por los Pentium 4.
Slot 1: la manzana de la discordia, o cómo quedarse el mercado
convertiendo una arquitectura abierta en un diseño propietario. Fue un
invento de Intel para enchufar los Pentium II, o más bien para
desenchufar
a
su
competencia,
AMD
y
Cyrix.
Físicamente, no se parece a nada de lo anterior; en vez de un rectángulo con
agujeritos para las patitas del chip, es una ranura (slot), una especie de
conector alargado como los ISA o PCI. Técnicamente, y por mucho que diga Intel,
36
EL MAINBOARD
no tiene muchas ventajas frente a los ZIF (e incluso puede que al estar los
conectores en forma de "peine" den lugar a más interferencias), aunque tiene una
irreprochable: es 100% Intel, TM, Copyrighted, propietario.

Lo que es más, pensaban no licenciarlo a nadie, en un claro intento de convertirse
en la única empresa que controla la arquitectura PC (léase monopolio), algo que
esperemos no consigan nunca, por el bien de nuestros bolsillos; sería tan absurdo
como tener un aparato electrónico muy bueno y no poder usarlo porque el
enchufe es redondo en vez de cuadrado.

Y eso que la verdad es que el Pentium II es todo un invento, pero el Slot 1 no lo
es; es un truquito sumamente desagradable... ¡Parece una idea de Bill Gates!

Slot A: la respuesta de AMD al Slot 1; físicamente ambos "slots" son idénticos,
pero lógica y eléctricamente son totalmente incompatibles por los motivos
indicados antes. Utilizado únicamente por los primeros AMD K7 Athlon.

Otros: en ocasiones, no existe zócalo en absoluto, sino que el chip está soldado
a la placa, en cuyo caso a veces resulta hasta difícil de reconocer. Es el caso de
muchos 8086, 286 y 386SX.

O bien se trata de chips antiguos (esos 8086 o 286), que tienen forma
rectangular alargada (parecida a la del chip de BIOS) y patitas planas en vez de
redondas; en este caso, el zócalo es asimismo rectangular, del modelo que se usa
para multitud de chips electrónicos de todo tipo.
Ranuras de memoria
Son
los
conectores
de
la
memoria
principal del ordenador, la RAM.
Antiguamente, los chips de RAM se colocaban uno a uno sobre la placa, de la
forma en que aún se hace en las tarjetas de vídeo, lo cual no era una buena idea debido
al número de chips que podía llegar a ser necesario y a la delicadeza de los mismos; por
ello, se agruparon varios chips de memoria soldados a una plaquita, dando lugar a lo que
se conoce como módulo.
Estos módulos han ido variando en tamaño, capacidad y forma de conectarse; al
comienzo los había que se conectaban a la placa mediante unas patitas muy delicadas, lo
cual se desechó del todo hacia la época del 386 por los llamados módulos SIMM, que
tienen los conectores sobre el borde del módulo.
37
EL MAINBOARD
Los SIMMs originales tenían 30 conectores, esto es, 30 contactos, y medían unos 8,5 cm.
Hacia finales de la época del 486 aparecieron los de 72 contactos, más largos: unos 10,5
cm. Este proceso ha seguido hasta desembocar en los actuales módulos DIMM, de 168
contactos y 13 cm.
Chipset de control
El "chipset" es el conjunto (set) de chips que se encargan
de controlar determinadas funciones del ordenador, como la
forma en que interacciona el microprocesador con la memoria o
la caché, o el control de puertos PCI, AGP, USB...
Antiguamente
estas
funciones
eran
relativamente
sencillas de realizar, por lo que el chipset era el último elemento
al que se concedía importancia a la hora de comprar una placa base, si es que alguien se
molestaba siquiera en informarse sobre la naturaleza del mismo. Sin embargo, la llegada
de micros más complejos como los Pentium o los K6, además de nuevas tecnologías en
memorias y caché, le ha hecho cobrar protagonismo, en ocasiones incluso exagerado.
Debido a lo anterior, se puede decir que el chipset de un 486 o inferior no es de
mayor importancia (dentro de un límite razonable), por lo que vamos a tratar sólo de los
chipsets para Pentium y superior:

chipsets de Intel para Pentium ("Tritones"): son muy conocidos, pero a decir
verdad más por el márketing que ha recibido su nombre comercial genérico
(Tritón) que por sus capacidades, aunque éstas son destacables.
o
430 FX: el Tritón clásico. Un chipset bastante apropiado para los Pentium
"normales" (no MMX) con memorias tipo EDO. Hoy en día desfasado y
descatalogado.
o
430 HX: el Tritón II, la opción profesional del anterior. Mucho más rápido
y con soporte para placas duales (con 2 Pentium). Algo anticuado pero
muy bueno.
o
430 VX: ¿el Tritón III? Más bien el 2.5; algo más lento que el HX, pero
con soporte para memoria SDRAM. Se puede decir que es la revisión del
FX, o bien que se sacó para que la gente no se asustara del precio del
HX...
o
430 TX: el último Tritón. Soporte MMX, SDRAM, UltraDMA... Sin embargo,
carece de AGP y de bus a 100 MHz, por lo que ha quedado algo desfasado.
EL MAINBOARD
38
Un problema: si se le pone más de 64 MB de RAM, la caché deja de actuar;
aunque más de 64 MB es mucha RAM.

chipsets de VIA para Pentium ("Apollos"): unos chipsets bastante buenos, se
caracterizan por tener soporte para casi todo lo imaginable (memorias SDRAM o
BEDO, UltraDMA, USB...); su pelea está en la gama del HX o TX, aunque suelen
ser algo más lentos que éstos con micros Intel (y es que el Pentium lo inventó
Intel, y tenía que notarse...)

Lo bueno de las placas con chipsets VIA es que su calidad suele ser intermediaalta, mientras que en placas con chipsets Intel hay un abanico muy amplio entre
placas muy buenas y otras francamente malas. Además, y al contrario que Intel,
siguen con el campo de placas socket 7 (las de tipo Pentium y Pentium MMX), por
lo que ofrecen soluciones mucho más avanzadas que el TX (con AGP y bus a 100
MHz, por ejemplo).

chipsets de SiS, ALI, VLSI y ETEQ para Pentium: como los anteriores, sus
capacidades son avanzadas, aunque su velocidad sea en ocasiones algo más
reducida si los usamos con micros Intel.

Su principal baza, al igual que en los VIA, está en el soporte de características
avanzadas de chips no Intel "compatibles Pentium" (y a veces mejores), como son
el AMD K6, el K6-2 o el Cyrix-IBM 6x86MX (M2); si su opción está en uno de estos
micros o quiere usar tarjetas AGP, su placa ideal es muy probable que no se llame
"Intel inside".

chipsets de Intel para Pentium II: a decir verdad, aún sin competencia seria,
lo que no es de extrañar teniendo el Pentium II sólo un añito... y siendo de Intel.
o
440 FX: un chipset fabricado para el extinto Pentium Pro, liquidado en
favor del Pentium II (que es un Pro revisado, algo más barato y con el
mágico "MMX").
o
Para un Pentium Pro, bueno; para un Pentium II y los avances actuales
(memorias, AGP...), muy malo.
o
440 LX: el primer y muy eficiente chipset para Pentium II. Lo tiene casi
todo, excepto bus a 100 MHz, lo que hace que no admita micros a más de
333 MHz.
o
440 BX: la última novedad de Intel. Con bus de 100 MHz, es el tope de la
gama.
o
440 EX: un chipset basado en el LX pero de características recortadas.
Muy malo, sólo válido para Celeron.
o
440 ZX: un chipset basado en el BX pero de características recortadas,
como el EX. De nuevo, sólo válido para Celeron.
EL MAINBOARD

39
otras marcas para Pentium II: VIA Apollo Pro y ALI Aladdin Pro. Chipsets
muy completos, con soporte incluso para bus a 100 MHz, pero que tienen su
mayor problema en convencer a los fabricantes y al público de no usar los
chipsets de Intel, que han estado en solitario durante todo un año.
La BIOS
La BIOS realmente no es sino un programa que se
encarga de dar soporte para manejar ciertos dispositivos
denominados de entrada-salida (Input-Output). Físicamente se
localiza en un chip que suele tener forma rectangular, como el
de la imagen.
Además, la BIOS conserva ciertos parámetros como el tipo de disco duro, la fecha
y hora del sistema, etc., los cuales guarda en una memoria del tipo CMOS, de muy bajo
consumo y que es mantenida con una pila cuando el ordenador está desconectado.
Las BIOS pueden actualizarse bien mediante la extracción y sustitución del chip
(método muy delicado) o bien mediante software, aunque sólo en el caso de las llamadas
Flash-BIOS.
Slots para tarjetas de expansión
Son unas ranuras de plástico con conectores eléctricos (slots) donde se introducen las
tarjetas de expansión (tarjeta de vídeo, de sonido, de red...). Según la tecnología en que
se basen presentan un aspecto externo diferente, con diferente tamaño y a veces incluso
en distinto color.

Ranuras ISA: son las más veteranas, un legado de los primeros tiempos del PC.
Funcionan a unos 8 MHz y ofrecen un máximo de 16 MB/s, suficiente para
conectar un módem o una tarjeta de sonido, pero muy poco para una tarjeta de
vídeo. Miden unos 14 cm y su color suele ser negro; existe una versión aún más
antigua que mide sólo 8,5 cm.

Ranuras Vesa Local Bus: un modelo de efímera vida: se empezó a usar en los
486 y se dejó de usar en los primeros tiempos del Pentium. Son un desarrollo a
partir de ISA, que puede ofrecer unos 160 MB/s a un máximo de 40 MHz. Son
EL MAINBOARD
40
larguísimas, unos 22 cm, y su color suele ser negro, a veces con el final del
conector en marrón u otro color.

Ranuras PCI: el estándar actual. Pueden dar hasta 132 MB/s a 33 MHz, lo que es
suficiente para casi todo, excepto quizá para algunas tarjetas de vídeo 3D. Miden
unos 8,5 cm y generalmente son blancas.

Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar
tarjetas de vídeo 3D, por lo que sólo suele haber una; además, su propia
estructura impide que se utilice para todos los propósitos, por lo que se utiliza
como una ayuda para el PCI. Según el modo de funcionamiento puede ofrecer 264
MB/s o incluso 528 MB/s. Mide unos 8 cm y se encuentra bastante separada del
borde de la placa.
Las placas actuales tienden a tener los más conectores PCI posibles, manteniendo
uno o dos conectores ISA por motivos de compatibilidad con tarjetas antiguas y usando
AGP para el vídeo.
Memoria caché
Se trata de un tipo de memoria muy rápida que se
utiliza de puente entre el microprocesador y la memoria
principal o RAM, de tal forma que los datos más utilizados
puedan encontrarse antes, acelerando el rendimiento del
ordenador, especialmente en aplicaciones ofimáticas.
Se empezó a implantar en la época del 386, no siendo de uso general hasta la
llegada de los 486. Su tamaño ha sido siempre relativamente reducido (como máximo 1
MB), tanto por cuestiones de diseño como por su alto precio, consecuencia directa de su
gran velocidad. Este precio elevado hizo que incluso se llegara a vender un número
considerable de placas base con cachés falsas, algo que afortunadamente en la
actualidad es bastante inusual.
También se la conoce como caché externa, secundaria o de segundo nivel (L2,
level 2), para diferenciarla de la caché interna o de primer nivel que llevan todos los
microprocesadores desde el 486 (excepto el 486SX y los primeros Celeron). Su
presentación varía mucho: puede venir en varios chips o en un único chip, soldada a la
placa base o en un zócalo especial (por ejemplo del tipo CELP) e incluso puede no estar
en la placa base sino pertenecer al microprocesador, como en los Pentium II y los
modernos Celeron Mendocino.
41
EL MAINBOARD
Conectores externos
Se trata de los conectores para periféricos
externos: teclado, ratón, impresora... En las placas
Baby-AT lo único que está en contacto con la placa son
unos cables que la unen con los conectores en sí, que
se sitúan en la carcasa, excepto el de teclado que sí
está adherido a la propia placa. En las ATX los conectores están todos agrupados entorno
al de teclado y soldados a la placa base.
Los principales conectores son:
Bien para clavija DIN ancha, propio de las
Teclado
placas Baby-AT, o mini-DIN en placas ATX
y muchos diseños propietarios.
Puerto
paralelo
(LPT1)
En los pocos casos en los que existe más
de uno, el segundo sería LPT2. Es un
conector hembra de unos 38 mm, con 25
pines agrupados en 2 hileras.
Suelen ser dos, uno estrecho de unos 17
mm, con 9 pines (habitualmente "COM1"),
y otro ancho de unos 38 mm, con 25 pines
Puertos serie
(generalmente "COM2"), como el paralelo
(COM o RS232)
pero macho, con los pines hacia fuera.
Internamente son iguales, sólo cambia el
conector exterior; en las placas ATX suelen
ser ambos de 9 pines.
Puerto para
ratón PS/2
En realidad, un conector mini-DIN como el
de teclado; el nombre proviene de su uso
en los ordenadores PS/2 de IBM.
Puerto de
O puerto para joystick o teclado midi. De
juegos
tamaño algo mayor que el puerto serie
42
EL MAINBOARD
estrecho, de unos 25 mm, con 15 pines
agrupados en 2 hileras.
Incluyendo las modernas SVGA, XGA...
pero no las CGA o EGA. Aunque lo normal
es que no esté integrada en la placa base
Puerto VGA
sino en una tarjeta de expansión, vamos a
describirlo para evitar confusiones: de unos
17 mm, con 15 pines agrupados en 3
hileras.
En las placas más modernas (ni siquiera en
USB
todas
las
rectangular,
ATX);
de
forma
inconfundible
y
estrecha
de
y
mayor
utilidad cada vez.
Actualmente los teclados y ratones tienden hacia el mini-DIN o PS/2, y se supone
que en unos años casi todo se conectará al USB, en una cadena de periféricos conectados
al mismo cable. Sin embargo, en mi opinión nos quedan puertos paralelo y serie para
rato; no en vano llevamos más de quince años con ellos.
Conectores internos
Bajo esta denominación englobamos a los conectores para
dispositivos internos, como puedan ser la disquetera, el disco
duro, el CD-ROM o el altavoz interno, e incluso para los
puertos serie, paralelo y de joystick si la placa no es de
formato ATX.
En las placas
base
antiguas
el
soporte para estos
elementos
se
realizaba mediante una tarjeta auxiliar, llamada de Input/Output o simplemente de I/O,
como la de la siguiente foto; pero ya desde la época de los 486 se hizo común integrar
los chips controladores de estos dispositivos en la placa base, o al menos los
correspondientes a discos duros y disquetera.
43
EL MAINBOARD
Siguiendo la foto anterior de izquierda a derecha, el primer conector es el
correspondiente a la disquetera; tiene 34 pines, y equivale al de menor tamaño de la
foto del comienzo de este apartado; el siguiente es el de disco duro, que en las placas
actuales es doble (uno para cada canal IDE); tiene 40 pines (a veces sólo 39, ya que el
pin 20 carece de utilidad) y equivale a uno cualquiera de los otros dos que aparecen en la
foto superior.
El resto de conectores (para puertos serie, paralelo y joystick) pueden ser
directamente externos (caso de las placas ATX) o bien internos para conectar un cable
que termina en el adaptador correspondiente, que es el que asoma al exterior (caso de
las placas Baby-AT o aquellas que usan tarjetas de I/O como la de la foto). Como
ejemplo, el siguiente conector de la foto sería para el puerto de juegos o puerto para
joystick, con 16 pines, puerto que actualmente suele venir incorporado a la tarjeta de
sonido; mientras que el último conector, el situado más a la derecha con sólo 10 pines,
se utilizaría para conectar un cable para uno de los puertos serie (el otro puerto serie es
precisamente el conector que asoma por el lado derecho de la imagen).
En esta clase de conectores, resulta de vital importancia conocer la posición del
pin número 1, que vendrá indicada mediante un pequeño 1 o una flecha, y que
corresponderá al extremo del cable marcado por una línea roja.
Por último, el altavoz interno, los leds (las bombillitas) para el disco
duro, el indicador de encendido, el turbo (si existe, en las placas modernas
está totalmente en desuso) y los interruptores de reset o stand-by se
conectan todos ellos con finos cables de colores a una serie de jumpers
cuya posición y características de voltaje vendrán indicadas en el manual de
la placa y/o en el serigrafiado de la misma.
Conector eléctrico
Es donde se conectan los cables para
que la placa base reciba la alimentación
proporcionada por la fuente. En las placas
Baby-AT los conectores son dos, si bien están uno junto al otro, mientras que en las ATX
es único.
Cuando se trata de conectores Baby-AT, deben disponerse de forma que los
cuatro cables negros (2 de cada conector), que son las tierras, queden en el centro. El
EL MAINBOARD
44
conector ATX suele tener formas rectangulares y trapezoidales alternadas en algunos de
los pines de tal forma que sea imposible equivocar su orientación.
Una de las ventajas de las fuentes ATX es que permiten el apagado del sistema por
software; es decir, que al pulsar "Apagar el sistema" en Windows 95 el sistema
¡realmente se apaga!.
Pila
La pila del ordenador, o más correctamente el acumulador,
se encarga de conservar los parámetros de la BIOS cuando el
ordenador está apagado. Sin ella, cada vez que encendiéramos
tendríamos que introducir las características del disco duro, del
chipset, la fecha y la hora...
Se trata de un acumulador, pues se recarga cuando el ordenador está encendido.
Sin embargo, con el paso de los años pierde poco a poco esta capacidad (como todas las
baterías recargables) y llega un momento en que hay que cambiarla. Esto, que ocurre
entre 2 y 6 años después de la compra del ordenador, puede vaticinarse observando si la
hora del ordenador "se retrasa" más de lo normal.
Para cambiarla, apunte todos los parámetros de la BIOS para reescribirlos luego,
saque la pila (usualmente del tipo de botón grande o bien cilíndrica como la de la
imagen), llévela a una tienda de electrónica y pida una exactamente igual. O bien lea el
manual de la placa base para ver si tiene unos conectores para enchufar pilas externas;
si es así, apunte de qué modelo se trata y cómprelas.
Elementos integrados variados
En las placas base modernas resulta muy común que ciertos componentes se incluyan
en la propia placa base, en vez de ir en forma de tarjetas de expansión. Los más
comunes son:

Controladoras de dispositivos: en general todas las placas Pentium, y algunas
486, disponen de unos chips en la placa base que se encargan de manejar los
discos duros, disqueteras y puertos serie (puertos COM); algunas de gama alta
incluso tienen controladoras SCSI integradas.

Tarjeta de sonido: ahora que una tarjeta de 16 bits suele consistir en un único
chip y los conectores, cada vez más placas base la incorporan.
EL MAINBOARD

45
Controladora de vídeo: lo que suele llamarse "tarjeta de vídeo", pero sin la
tarjeta. Las que incorporan las placas base no suelen ser de una potencia
excepcional, pero sí suficiente para trabajos de oficina, como por ejemplo una
Intel 740.
Sobre la conveniencia o no de que las placas base tengan un alto grado de
integración de componentes hay opiniones para todos los gustos. Indudablemente, salen
más baratas y es más cómodo, ya que el interior de la caja está limpio de cables y
tarjetas; sin embargo, no siempre son componentes de alta gama (sobre todo en tarjetas
de sonido y vídeo), además de que cualquier fallo importante en la placa nos deja sin
casi nada que poder aprovechar del ordenador.
EL CHIPSET
El "chipset" es el conjunto (set) de chips que se encargan de controlar
determinadas
funciones
del
ordenador,
como
la
forma
en
que
interacciona
el
microprocesador con la memoria o la caché, o el control de los puertos y slots ISA, PCI,
AGP, USB...
Antiguamente
estas
funciones
eran
relativamente
sencillas de realizar y el chipset apenas influía en el rendimiento
del ordenador, por lo que el chipset era el último elemento al
que se concedía importancia a la hora de comprar una placa
base, si es que alguien se molestaba siquiera en informarse
sobre la naturaleza del mismo. Pero los nuevos y muy
complejos micros, junto con un muy amplio abanico de
tecnologías en materia de memorias, caché y periféricos que aparecen y desaparecen
casi de mes en mes, han hecho que la importancia del chipset crezca enormemente.
De la calidad y características del chipset dependerán:

Obtener o no el máximo rendimiento del microprocesador.

Las posibilidades de actualización del ordenador.

El uso de ciertas tecnologías más avanzadas de memorias y periféricos.
Debe destacarse el hecho de que el uso de un buen chipset no implica que la
placa base en conjunto sea de calidad. Como ejemplo, muchas placas con chipsets
que darían soporte a enormes cantidades de memoria, 512 MB o más, no incluyen
zócalos de memoria para más de 128 ó 256. O bien el caso de los puertos USB, cuyo
soporte está previsto en la casi totalidad de los chipsets de los últimos dos años pero que
hasta fecha reciente no han tenido los conectores necesarios en las placas base.
Trataremos sólo los chipsets para Pentium y superior, ya que el chipset de un 486 o
inferior no es de mayor importancia (dentro de un límite razonable) por estar en general
todos en un nivel similar de prestaciones y rendimiento, además de totalmente
descatalogados. Tampoco trataremos todas las marcas, sino sólo las más conocidas o de
más interés; de cualquier forma, muchas veces se encuentran chipsets aparentemente
desconocidos que no son sino chipsets VIA, ALI o SIS bajo otra marca.
47
EL CHIPSET
Chipsets para Pentium y Pentium MMX
De Intel (Tritones)
Fueron la primera (y muy exitosa) incursión de Intel en el mundo de los chipsets,
mundo en el cual ha pasado de no fabricar prácticamente ninguno a tener un monopolio
casi total, que es la forma en que a Intel le gusta hacer los negocios. Esto no resulta
extraño,
ya
que
nadie
mejor
que
Intel
conoce
cómo
sacar
partido
a
sus
microprocesadores; además, el resto de fabricantes dependen de la información técnica
que les suministra Intel, que lo hace cuando y como quiere.

430 FX: el Tritón clásico, de apabullante éxito. Un chipset bastante apropiado
para los Pentium "normales" (no MMX) con memorias tipo EDO. Hoy en día
desfasado y descatalogado.

430 HX: el Tritón II, la opción profesional del anterior. Mucho más rápido y con
soporte para placas duales (con 2 micros). Algo anticuado pero muy bueno.

430 VX: ¿el Tritón III? Más bien el 2.5; algo más lento que el HX, pero con
soporte para memoria SDRAM. Se puede decir que es la revisión del FX, o bien
que se sacó para que la gente no se asustara del precio del HX...

430 TX: el último chipset de Intel para placas Pentium (placas socket 7). Si
queremos usar micros Intel y aplicaciones que se contenten con placas con 1
Pentium, la opción a elegir. Soporte MMX, SDRAM, UltraDMA... Un problema: si se
le pone más de 64 MB de RAM, la caché deja de actuar; aunque más de 64 MB es
mucha RAM.
Chipsets de Intel para Pentium y Pentium MMX
Concepto
430 FX
430 HX
430 VX
430 TX
Número CPUs máx.
1
2
1
1
RAM máxima
128 MB
512 MB
128 MB
256 MB
Tipos de RAM
RAM
cacheable 64 MB
máxima
FPM, EDO
FPM, EDO, SDRAM
512 MB (según
placa,
no
todas)
Caché L2 máxima
512 KB
64 MB
48
EL CHIPSET
Velocidad bus máx.
66 MHz
Puertos adicionales
USB
UltraDMA
y
USB
Comentarios
Desfasado
No adecuados para micros no Intel de nueva
generación (no soportan AGP ni bus 100 MHz)
Lo más destacable de estos chipsets, su buen rendimiento, especialmente con
micros Intel. Lo peor, su escaso soporte para micros no Intel, que en el campo socket 7
tienen desarrollos superiores a los de Intel, como los AMD K6 (normal y K6-2) o los
Cyrix-IBM 6x86MX (M2), en general más avanzados que los Pentium y Pentium MMX.
De VIA (Apollos)
Unos chipsets bastante buenos, se caracterizan por tener soporte para casi todo lo
imaginable (memorias SDRAM o BEDO, UltraDMA, USB...); su pelea está en la gama del
HX o TX, aunque suelen ser algo más lentos que éstos al equiparlos con micros Intel, no
así con micros de AMD o Cyrix-IBM.
Chipsets de VIA para Pentium y Pentium MMX
Concepto
VP2
VPX
VP3
Número CPUs máx.
1
RAM máxima
Tipos de RAM
RAM
cacheable
MVP3
512 MB
1 GB
FPM, EDO, BEDO, SDRAM
FPM, EDO, SDRAM
512 MB (según placa, no todas)
512 MB ó 1 GB (según placa, no
máxima
todas)
Caché L2 máxima
2048 KB
Velocidad bus máx.
66 MHz
75 MHz
66 MHz
100 MHz
Puertos adicionales
UltraDMA y USB
Comentarios
No adecuados para micros no Sin bus a 100 Muy moderno,
UltraDMA, USB y AGP
Intel de nueva generación (no MHz
con todos los
49
EL CHIPSET
soportan AGP ni bus 100 MHz)
avances
Lo bueno de las placas con chipsets VIA es que siguen en el
mercado socket 7, por lo que tienen soporte para todas las nuevas
tecnologías como el AGP o los buses a 100 MHz, además de que su
calidad suele ser intermedia-alta. En las placas con chipsets Intel
hay un abanico muy amplio entre placas muy buenas y otras
francamente malas, además de estar ya desfasadas (ningún chipset
Intel para socket 7 soporta AGP, por ejemplo).
El último chipset de VIA para socket 7, el MPV3, ofrece todas las prestaciones del
BX de Intel (excepto soporte para placas duales), configurando lo que se denomina una
placa Super 7 (con AGP y bus a 100 MHz), que con un micro como el nuevo AMD K6-2 no
tiene nada que envidiar a un equipo con Pentium II.
De ALI
Muy buenos chipsets, tienen soluciones tan avanzadas como el chipset para placas
Super 7 "Aladdin V", que como el MPV3 de VIA resulta equiparable a todos los efectos al
BX de Intel para placas Pentium II (bus a 100 MHz, AGP...); una fantástica elección para
micros como el AMD K6-2.
Chipsets de ALI para Pentium y Pentium MMX
Concepto
M1521/M1523
M1531/M15X3
M1541/M1543
(Aladdin III)
(Aladdin IV-IV+)
(Aladdin V)
Número CPUs máx.
RAM máxima
Tipos de RAM
1
1 GB
FPM, EDO, SDRAM
FPM, EDO, SDRAM,
PC100
RAM
cacheable
512 MB (según placa, no todas)
máxima
Caché L2 máxima
1 MB
50
EL CHIPSET
Velocidad bus máx.
75 MHz
83,3 MHz
100 MHz
Puertos adicionales
USB
UltraDMA y USB
UltraDMA,
USB
y
AGP
Comentarios
Apropiados para micros no Intel pero no de
Muy moderna, con
última generación (AMD K6-2) por carecer todos los avances
de bus a 100 MHz
De SiS
Como los anteriores, sus capacidades son avanzadas, aunque su velocidad sea a
veces algo más reducida que en los de Intel. Resultan recomendables para su uso junto a
chips compatibles Intel como el K6 de AMD o el 6x86MX (M2) de Cyrix-IBM, aunque
desgraciadamente no soportan por ahora el bus a 100 MHz del nuevo K6-2.
Chipsets de SIS para Pentium y Pentium MMX
Concepto
5597/5598
5581/5582
Número CPUs máx.
1
RAM máxima
384 MB
Tipos de RAM
RAM
5591/5592
768 MB
FPM, EDO, SDRAM
cacheable
128 MB
256 MB
Caché L2 máxima
512 KB
1 MB
Velocidad bus máx.
75 MHz
83 MHz
máxima
Puertos adicionales
UltraDMA,
USB
SVGA integrada
Comentarios
y UltraDMA y USB
UltraDMA,
USB
y
AGP
Apropiados para micros no Intel (especialmente Cyrix) pero no los
de última generación (AMD K6-2) por carecer de bus a 100 MHz
51
EL CHIPSET
Chipsets para Pentium II y Celeron
De Intel
A decir verdad, aún sin competencia seria, lo que no es de extrañar teniendo el
Pentium II sólo un añito... y siendo de Intel. Son bastante avanzados, excepto el
anticuado 440 FX (que no es propiamente un chipset para Pentium II, sino más bien para
el extinto Pentium Pro) y el barato EX, basado en el LX pero con casi todas las
capacidades reducidas.
Chipsets de Intel para Pentium II y Celeron
Concepto
440 FX
440 LX
Número CPUs máx.
RAM máxima
440 BX
440 EX
2
512 MB
1 GB
1
EDO ó 1 GB
256 MB
512 MB SDRAM
Tipos de RAM
FPM, EDO
FPM,
SDRAM
RAM
EDO, SDRAM
PC100 SDRAM
y FPM,
EDO,
SDRAM
cacheable
máxima
No aplicable (dentro del microprocesador, tamaño fijo)
Caché L2 máxima
Velocidad bus máx.
Puertos adicionales
66 MHz
UltraDMA
y
100 MHz
66 MHz
UltraDMA, USB y AGP
USB
Comentarios
Desfasado
Apropiado sólo
para Celeron
De otras marcas
No son demasiados, pero los que hay tienen todas las capacidades que hacen falta
en una placa Pentium II. El problema con el que se encuentran no es su falta de eficacia,
ya que aunque los de Intel están algo más rodados, el rendimiento es muy similar; pero
52
EL CHIPSET
el hecho de que durante un año la gente sólo haya oído hablar de FX, LX, BX y EX hace
difícil que entren en un mercado donde Intel tiene un monopolio absoluto.
Chipsets de otras marcas para Pentium II y Celeron
Concepto
VIA Apollo Pro
ALI Aladdin Pro II
SIS 5601
M1621/M15X3
Número CPUs máx.
1 ó más dependiendo de la placa
RAM máxima
1 GB
1 GB SDRAM ó 2 GB
FPM o EDO
Tipos de RAM
FPM, EDO, SDRAM, PC100 SDRAM
RAM cacheable
No aplicable (dentro del microprocesador,
máxima
tamaño fijo)
?
Caché L2 máxima
Velocidad bus máx.
100 MHz
Puertos adicionales
UltraDMA, USB y AGP
Comentarios
Muy avanzados, equivalentes al Intel BX
En proyecto
Glosario de términos relacionados
Resulta muy bonito saber que el chipset soporta esto o aquello, pero si saber qué es
esto o aquello no vamos a ningún lado. Los términos más importantes a conocer son:

AGP: un tipo de puerto o slot especializado para gráficos 3D.

Bus (del sistema): el canal por el que se comunica el micro con la memoria y
habitualmente con la caché L2. Cuanto más ancho sea, mejor, especialmente para
micros muy rápidos.

Caché L2: la caché secundaria o de nivel 2 (level 2). Es la memoria caché
externa, que acelera el rendimiento del ordenador; cuanta más memoria RAM
tengamos, más caché necesitaremos (por ejemplo, unos 512 KB para 32 MB de
RAM).

PC100: el tipo normalizado de memoria SDRAM de 100 MHz.
EL CHIPSET

53
RAM cacheable: la cantidad de RAM máxima que es capaz de manejar la caché.
Si superamos esta cifra es como si no tuviéramos memoria caché.

UltraDMA: una tecnología para los discos duros IDE modernos que la soportan
que eleva la transferencia teórica de datos hasta 33,3 MB/s.

USB: un tipo de puerto moderno para conectar dispositivos externos de velocidad
media-baja, con la ventaja de ser universal (el mismo para todos) y poderse
conectar en cadena unos a otros.
La elección del chipset
Chipset y placa base forman un conjunto indisoluble y de la máxima importancia,
por lo que su compra debe estar acompañada de una cierta reflexión. Lo primero es
recordar que un buen chipset sólo no hace una buena placa; si encontramos dos
placas con el mismo chipset pero una cuesta el doble que la otra, por algo será (aunque
a veces ese algo es simplemente la marca de la placa, por ejemplo las placas Intel, que
en general no son tan avanzadas como las Asus, Iwill o Gigabyte pero que cuestan lo
mismo o más que éstas...)
Así mismo, una placa debe ser comprada pensando en el futuro. Por
ejemplo, si vamos a comprar una para Pentium II, merece la pena comprar una con un
chipset capaz de trabajar a 100 MHz de bus (una Intel BX, Apollo Pro o Aladdin Pro II),
con lo que podremos ampliarla en el futuro a micros a 350 MHz o más, cosa que no
podremos hacer si compramos una LX, por ejemplo.
No se obsesione con el Intel Inside. No es que le tenga una manía especial a
Intel, y si la tuviera, me la aguantaría; se trata de que mucha gente prefiere dejarse
llevar por el atractivo de una marca sin informarse de las características de lo que
compra. Por ejemplo, si bien el chipset BX de Intel para Pentium II es aún el mejor de su
categoría, en el campo socket 7 los mejores desarrollos no son de Intel, que lo ha
abandonado a favor del campo Pentium II. Por ello, comprarse una placa TX ahora sería
un error, no porque sea Intel sino porque ese chipset está anticuado (aunque hace unos
meses era probablemente el mejor de su categoría); y lo mismo pasa con el EX, que es
mucho peor que los Apollo Pro o Aladdin Pro II.
Y por último, estudie bien la compra. Puede ser que el chipset admita mucha
memoria, pero que la placa tenga pocos zócalos para instalarla; o que estemos
comprando una placa base o un ordenador de segunda mano, y realmente nos importe
más que la memoria sea suficiente y fácilmente ampliable (EDO mejor que FPM, con
EL CHIPSET
54
zócalos vacíos...) que el hecho de que tenga un chipset sin AGP o sin AGP ni UltraDMA,
cuando puede que no vayamos a usar uno ni otro.
EL PROCESADOR
El microprocesador, o simplemente el micro, es el cerebro del computador. Es un
chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de
elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga
encomendado el chip.
Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o
rectángulo negro, y van o bien sobre un elemento llamado zócalo (socket en inglés) o
soldados en la placa o, en el caso del Pentium II, metidos dentro de una especie de
cartucho que se conecta a la placa base (aunque el chip en sí está soldado en el interior
de dicho cartucho).
A veces al micro se le denomina "el CPU" (Central Processing Unit, Unidad Central
de Proceso), aunque este término tiene cierta ambigüedad, pues también puede referirse
a toda la caja que contiene la placa base, el micro, las tarjetas y el resto de la circuitería
principal del computador.
La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz =
1.000 MHz), aunque esto es sólo una medida de la fuerza bruta del micro; un micro
simple y anticuado a 500 MHz puede ser mucho más lento que uno más complejo y
moderno (con más transistores, mejor organizado...) que vaya a "sólo" 400 MHz. Es lo
mismo que ocurre con los motores de coche: un motor americano de los años 60 puede
tener 5.000 cm3, pero no tiene nada que hacer contra un multiválvula actual de "sólo"
2.000 cm3.
Debido a la extrema dificultad de fabricar componentes electrónicos que funcionen a
las inmensas velocidades de MHz habituales hoy en día, todos los micros modernos
tienen 2 velocidades:

Velocidad interna: la velocidad a la que funciona el micro internamente (200,
333, 450... MHz).

Velocidad externa o del bus: o también "velocidad del FSB"; la velocidad a la
que se comunican el micro y la placa base, para poder abaratar el precio de ésta.
Típicamente, 33, 60, 66, 100 ó 133 MHz.
La cifra por la que se multiplica la velocidad externa o de la placa para dar la interna
o del micro es el multiplicador; por ejemplo, un Pentium III a 450 MHz utiliza una
velocidad de bus de 100 MHz y un multiplicador 4,5x.
EL PROCESADOR
56
ESTRUCTURA INTERNA DE UN PROCESADOR
En un micro podemos diferenciar diversas partes:

el encapsulado: es lo que rodea a la oblea de silicio en sí, para darle
consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y
permitir el enlace con los conectores externos que lo acoplarán a su zócalo o a la
placa base.

la memoria caché: una memoria ultrarrápida que emplea el micro para tener a
mano ciertos datos que previsiblemente serán utilizados en las siguientes
operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo de
espera.
Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché
interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que
está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine,
Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más
grande aunque algo menos rápida, la caché de segundo nivel o L2.

el coprocesador matemático: o, más correctamente, la FPU (Floating Point
Unit, Unidad de coma Flotante). Parte del micro especializada en esa clase de
cálculos matemáticos; antiguamente estaba en el exterior del micro, en otro chip.

el resto del micro: el cual tiene varias partes (unidad de enteros, registros, etc.)
que no merece la pena detallar aquí.
LOS MHZ Y EL ÍNDICE ICOMP
Debe tenerse en cuenta que un computador con un micro a 600 MHz no será
nunca el doble de rápido que uno con un micro a 300 MHz, hay que tener muy en cuenta
otros factores como la velocidad de la placa o la influencia de los demás componentes.
Esto no se tiene apenas en cuenta en el índice iCOMP, una tabla o gráfico de valores del
supuesto rendimiento de los micros marca Intel. Es muy utilizado por Intel en sus folletos
publicitarios, aunque no es en absoluto representativo del rendimiento final de un
computador con alguno de esos micros.
En realidad, las diferencias están muy exageradas, a base de realizar pruebas que
casi sólo dependen del micro (y no de la placa base, la tarjeta de vídeo, el disco duro...),
por lo que siempre parece que el rendimiento del computador crecerá linealmente con el
número de MHz, cosa que no ocurre prácticamente jamás. Un computador con Pentium
57
EL PROCESADOR
MMX a 233 MHz es sólo un 3 ó 4% mejor que uno a 200 MHz, y no el 16,5% de su
diferencia de MHz ni el 11,5% de sus índices iCOMP. Parecerá increíble, pero es así.
Vamos, que si le quieren vender un computador con el argumento de que tiene x MHz
más, o un índice iCOMP inmenso, muéstrese muy escéptico. Mejor un computador con
todos sus componentes regulares (mucha memoria, buena tarjeta de vídeo...) que
un trasto a muchísimos MHz
HISTORIA DE LOS MICROPROCESADORES
En 1.981 el modelo PC de IBM tuvo gran éxito, (entre otras cosas porque era fácil
de copiar). En su interior había un micro denominado 8088, de
una empresa no muy conocida (¡¡en serio!!) llamada Intel.
Las prestaciones de dicho chip resultan risibles hoy en
día: un chip de 8 bits trabajando a 4,77 MHz (sí, 4 coma 77),
aunque bastante razonables para una época en la que el chip de
moda era el Z80 de Zilog, el motor de aquellos entrañables
Spectrum14 que hicieron furor en aquellos tiempos, gracias sobre
todo a juegos increíbles, con más gracia y arte que muchos actuales para Pentium MMX.
El 8088 era una versión de prestaciones reducidas del 8086, que marcó la coletilla "86"
para los siguientes chips Intel: el 80186 (que se usó principalmente para controlar
periféricos), el 80286 (de cifras aterradoras, 16 bits y hasta 20 MHz) y por fin, en 1.987,
el primer micro de 32 bits, el 80386 o simplemente 386.
Al ser de 32 bits permitía idear software más moderno, con funcionalidades como
multitarea real, es decir, disponer de más de un programa trabajando a la vez. A partir
de entonces todos los chips compatibles Intel han sido de 32 bits, incluso el flamante
Pentium II.
Ocupémonos ahora de eso de compatibles Intel. El mundo PC no es todo el mundo
de la informática personal; existen por ejemplo los Atari o los Apple, que desde el
principio confiaron en otra empresa llamada Motorola. Sin embargo, el software de esos
computadores no es compatible con el tipo de instrucciones de la familia 80x86 de Intel;
esos micros, pese a ser en ocasiones mejores que los Intel, sencillamente no entienden
las órdenes utilizadas en los micros Intel, por lo que se dice que no son compatibles
Intel.
14
Modelo de la empresa inglesa Sinclair. Junto al modelo ZX81 causaron furor en la primera década de los 80.
EL PROCESADOR
58
Aunque sí existen chips compatibles Intel de otras empresas, entre las que
destacan AMD y Cyrix. Estas empresas comenzaron copiando flagrantemente a Intel,
hasta hacerle a veces mucho daño (con productos como el 386 de AMD, que llegaba a 40
MHz frente a 33 MHz del de Intel, o bien en el mercado 486). Posteriormente perdieron el
carro de Intel, especialmente el publicitario, pero hoy en día resurgen con ideas nuevas,
buenas y propias, no adoptadas como antes.
Volviendo a la historia, un día llegó el 486, que era un 386 con un coprocesador
matemático incorporado y una memoria caché integrada, lo que le hacía más rápido;
desde entonces todos los chips tienen ambos en su interior. Luego vino el Pentium, un
nombre inventado para evitar que surgieran 586s marca AMD o Cyrix, ya que no era
posible patentar un número pero sí un nombre, lo que aprovecharon para sacar fuertes
campañas de publicidad del "Intel Inside" (Intel dentro), hasta llegar a los técnicos
informáticos de colores que anunciaban los Pentium MMX y los Pentium II.
Sobre estos (los MMX y II, no los tipos ridículos de colores) y otros modelos
recientes, incluyendo al Athlon con el que AMD ha resucitado cual ave Fénix, hablaremos
más adelante.
Microprocesadores Antiguos
Tal como está el mundo, podríamos decir que cualquiera que tenga más de un
mes en el mercado. De todas formas, aquí vamos a suponer antiguo a todo micro que no
sea un Pentium o similar (K5, K6, 6x86, Celeron, etc)
8086, 8088, 286
Les juntamos por ser todos prehistóricos y de rendimiento similar. Los
computadores con los dos primeros eran en ocasiones conocidos como computadores XT,
mientras que los que tenían un 286 (80286 para los puristas) se conocían como AT. En
España se vendieron muchos computadores con estos micros por la firma Amstrad, por
ejemplo.
Ninguno era de 32 bits, sino de 8 ó 16, bien en el bus interno o el externo. Esto
significa que los datos iban por caminos (buses) que eran de 8 ó 16 bits, bien por dentro
del chip o cuando salían al exterior, por ejemplo para ir a la memoria. Este número
reducido de bits (un bit es la unidad mínima de información en electrónica) limita sus
posibilidades en gran medida.
EL PROCESADOR
59
Un chip de estas características tiene como entorno preferente y casi único el
DOS, aunque puede hacerse correr Windows 3.1 sobre un 286 a 16 ó 20 MHz si las
aplicaciones que vamos a utilizar no son nada exigentes; personalmente, he usado el
procesador de textos AmiPro 1.2 en Windows 3.1 en un 286 y sólo era cuestión de
tomármelo con calma (mucha calma cuando le mandaba imprimir, eso sí).
Sin embargo, si tiene un computador así, no lo tire; puede usarlo para escribir
textos (con algún WordPerfect antiguo), para jugar a juegos antiguos pero adictivos
(como el Tetris, Prince of Persia, y otros clásicos), o incluso para navegar por Internet,
sobre todo si el monitor es VGA y tiene un módem "viejo" (por ejemplo un 14.400).
386, 386 SX
Estos chips ya son más modernos, aunque aún del Neolítico informático. Su
ventaja es que son de 32 bits; o mejor dicho, el 386 es de 32 bits; el 386 SX es de 32
bits internamente, pero de 16 en el bus externo, lo que le hace hasta un 25% más lento
que el original, conocido como DX.
Resulta curioso que el más potente sea el original, el 386. La versión SX fue
sacada al mercado por Intel siguiendo una táctica comercial típica en esta empresa:
dejar adelantos tecnológicos en reserva, manteniendo los precios altos, mientras se
sacan versiones reducidas (las "SX") a precios más bajos.
La cuestión es que ambos pueden usar software de 32 bits, aunque si lo que
quiere usar es Windows 95 ¡ni se le ocurra pensar en un 386! Suponiendo que tenga
suficiente memoria RAM, disco, etc., prepárese para esperar horas para realizar cualquier
tontería.
Su ámbito natural es DOS y Windows 3.x, donde pueden manejar aplicaciones
bastante profesionales como Microsoft Word sin demasiados problemas, e incluso
navegar por Internet de forma razonablemente rápida. Si lo que quiere es multitarea y
software de 32 bits en un 386, piense en los sistemas operativos OS/2 o Linux (¡este
último es gratis!).
EL PROCESADOR
60
486, 486 SX, DX, DX2 y DX4
La historia se repite, aunque esta vez entra en el campo del absurdo de la mano del
márketing "Intel Inside". El 486 es el original, y su nombre completo es 80486 DX;
consiste en:

un corazón 386 actualizado, depurado y afinado;

un coprocesador matemático para coma flotante integrado;

una memoria caché (de 8 Kb en el DX original de Intel).
Es de notar que la puesta a punto del núcleo 386 y sobre todo la memoria caché lo
hacen mucho más rápido, casi el doble, que un 386 a su misma velocidad de reloj
(mismos MHz). Hasta aquí el original; veamos las variantes:

486 SX: un DX sin coprocesador matemático. ¿Que cómo se hace eso? Sencillo:
se hacen todos como DX y se quema el coprocesador, tras lo cual en vez de
"DX" se escribe "SX" sobre el chip. Dantesco, ¿verdad? Pero la teoría dice que si
lo haces y lo vendes más barato, sacas dinero de alguna forma. Lo dicho,
alucinante.

486 DX2: o el "2x1": un 486 "completo" que va internamente el doble de rápido
que externamente (es decir, al doble de MHz). Así, un 486 DX2-66 va a 66 MHz
en su interior y a 33 MHz en sus comunicaciones con la placa (memoria, caché
secundaria...). Buena idea, Intel.

486 DX4: o cómo hacer que 3x1=4. El mismo truco que antes, pero
multiplicando por 3 en vez de por 2 (DX4-100 significa 33x3=99 ó, más o menos,
100). ¿Que por qué no se llama DX3? Márketing, chicos, márketing. El 4 es más
bonito y grande...
En este terreno Cyrix y AMD hicieron de todo, desde micros "light" que eran 386
potenciados (por ejemplo, con sólo 1 Kb de caché en vez de 8) hasta chips muy buenos
como el que usé para empezar a escribir esto: un AMD DX4-120 (40 MHz por 3), que
rinde casi (casi) como un Pentium 75, o incluso uno a 133 MHz (33 MHz por 4 y con 16
Kb de caché!!).
Por cierto, tanto "por" acaba por generar un cuello de botella, ya que hacer pasar 100
ó 133 MHz por un hueco para 33 es complicado, lo que hace que más que "x3" acabe
siendo algo así como "x2,75" (que tampoco está mal). Además, genera calor, por lo que
debe usarse un disipador de cobre y un ventilador sobre el chip.
61
EL PROCESADOR
En un 486 se puede hacer de todo, sobre todo si supera los 66 MHz y tenemos
suficiente RAM; por ejemplo, yo hice gran parte de estas páginas, que no es poco
Microprocesadores modernos
Modernos dentro de un orden, ya que actualmente la mayoría ni se fabrican. De
todas formas, son micros bastante decentes, de la clase que no debería ser cambiada
salvo por defunción o puro vicio (vicio comprensible, sin duda).
Pentium "clásicos"
¿Y llegó por fin el esperado 586? No, y no llegaría nunca.
Intel se hartó de que le copiaran el nombre de sus micros,
desempolvó su latín y se dio cuenta de que 5=Pentium (o
algo así), y lo registró con todo tipo de Copyrights.
Los primeros Pentium, los de 60 y 66 MHz, eran, pura y
simplemente, experimentos. Eso sí, los vendían (bien
caros) como terminados, aunque se calentasen como
demonios (iban a 5 V) y tuvieran un fallo en la unidad matemática. Pero Intel ya era
INTEL, y podía permitírselo.
Luego los depuraron, les bajaron el voltaje a 3,3 V y empezó de nuevo el
márketing. Fijaron las frecuencias de las placas base en 50, 60 ó 66 MHz, y sacaron, más
o menos por este orden, chips a 90, 100, 75, 120, 133, 150, 166 y 200 MHz (que iban
internamente a 50, 60 ó 66 x1,5, x2, x2,5...). Una situación absurda, propia del lema
"Intel Inside".
El caso es que sobraban muchas de las variantes, pues un 120 (60x2) no era
mucho mejor que un 100 (66x1,5), y entre el 133 (66x2) y el 150 (60x2,5) la diferencia
era del orden del 2% (o menor), debido a esa diferencia a nivel de placa. Además, el
"cuello de botella" hacía que el 200 se pareciera peligrosamente a un 166 en un buen
día.
Pero el caso es que eran buenos chips, eficientes y matemáticamente insuperables,
aunque con esos fallos en los primeros modelos. Además, eran superescalares, o en
cristiano: admitían más de una orden a la vez (casi como si fueran 2 micros juntos). Así
que la competencia se puso el hábito de penitente, y padeció, y padeció...
EL PROCESADOR
62
K5 de AMD
...Hasta que AMD se cansó de padecer y sacó su
"Pentium clónico", que no era tal, pues ni podía llamarlo
Pentium (copyright, chicos) ni estaba copiado, sino que le costó
sangre, sudor, lágrimas... y varios años de retraso.
El K5 era un buen chip, rápido para labores de oficina pero con peor coprocesador
matemático que el Pentium, por lo que no era apropiado para CAD ni para ciertos juegos
tipo Quake, que son las únicas aplicaciones que usan esta parte del micro. Su ventaja, la
relación prestaciones/precio.
Técnicamente, los modelos PR75, PR90 y PR100 se configuraban igual que sus PR
equivalentes (sus Performance Rating) en Pentium, mientras que los PR120, PR133 y
PR166 eran más avanzados, por lo que necesitaban ir a menos MHz (sólo 90, 100 y
116,66 MHz) para alcanzar ese PR equivalente.
6x86 (M1) de Cyrix (o IBM)
Un señor avance de Cyrix. Un chip tan bueno que, a los mismos MHz, era algo
mejor que un Pentium, por lo que los llamaban por su PR (un índice que indicaba cuál
sería su Pentium equivalente); AMD usó también este método para tres de sus K5 (los
PR120, 133 y 166). Según Cyrix, un 6x86 P133 iba a menos MHz (en concreto 110), pero
rendía tanto o más que un Pentium a 133. Bueno, más o menos; no siempre era así.
En realidad, algunos cálculos de Cyrix le beneficiaban un poco, ya que le daban un
par de puntos más de los reales; pero esto era insignificante. El auténtico problema
radicaba en su unidad de coma flotante, francamente mala.
El 6x86 (también llamado M1) era una elección fantástica para trabajar rápido y a
buen precio con Office, WordPerfect, Windows 95... pero mala, peor que un K5 de AMD,
si se trataba de AutoCAD, Microstation o, sobre todo, juegos. Jugar a Quake en un 6x86
es una experiencia horrible, hasta el punto de que muchos juegos de alta gama no
arrancan si lo detectan. Una pena...
Otro problema de estos chips era que se calentaban mucho, por lo que hicieron
una versión de bajo voltaje llamada 6x86L (low voltage). Ah, Cyrix no tiene fábricas
63
EL PROCESADOR
propias, por lo que se lo hace IBM, que se queda un chip de cada dos. Por eso a veces
aparece como "6x86 de IBM", que parece que asusta menos al comprador.
Pentium Pro
Mientras AMD y Cyrix padecían su particular viacrucis, Intel decidió innovar el
terreno informático y sacó un "súper-micro", al que tuvo la original idea de apellidar Pro
(Profesional, suponemos).
Este micro era más superescalar que el Pentium, tenía un núcleo más depurado,
incluía una unidad matemática aún más rápida y, sobre todo, tenía la caché de segundo
nivel en el encapsulado del chip. Esto no quiere decir que fuera una nueva caché interna,
término que se reserva para la de primer nivel.
Un Pentium Pro tiene una caché de primer nivel junto al resto del micro, y además
una de segundo nivel "en la habitación de al lado", sólo separada del corazón del micro
por un centímetro y a la misma velocidad que éste, no a la de la placa (más baja);
digamos que es semi-interna. El micro es bastante grande, para poder alojar a la caché,
y va sobre un zócalo rectangular llamado socket 8.
El único problema de este micro era su carácter profesional. Además de ser muy
caro, necesitaba correr software sólo de 32 bits. Con software de 16 bits, o incluso
una mezcla de 32 y 16 bits como Windows 95, su rendimiento es menor que el de un
Pentium clásico; sin embargo, en Windows NT, OS/2 o Linux, literalmente vuela.
Pentium MMX
Es un micro propio de la filosofía Intel. Con un gran chip como el
Pentium Pro ya en el mercado, y a 3 meses escasos de sacar el
Pentium II, decidió estirar un poco más la tecnología ya obsoleta del
Pentium clásico en vez de ofrecer esas nuevas soluciones a un precio
razonable.
Así que se inventó un nuevo conjunto de instrucciones para micro, que para ser
modernos tuvieran que ver con el rendimiento de las aplicaciones multimedia, y las llamó
MMX (MultiMedia eXtensions). Prometían que el nuevo Pentium, con las MMX y el doble
de caché (32 KB), podía tener ¡hasta un 60% más de rendimiento!!
64
EL PROCESADOR
Disculpen si respondo: ¡y unas narices! En ocasiones, la ventaja puede llegar al
25%, y sólo en aplicaciones muy optimizadas para MMX (ni Windows 95 ni Office lo
son, por ejemplo). En el resto, no más de un 10%, que además se debe casi en exclusiva
al aumento de la caché interna al doble.
¿La ventaja del chip, entonces? Que su precio final acaba siendo igual que si no
fuera MMX. Además, consume y se calienta menos por tener voltaje reducido para el
núcleo del chip (2,8 V). Por cierto, el modelo a 233 MHz (66 MHz en placa por 3,5) está
tan estrangulado por ese "cuello de botella" que rinde poco más que el 200 (66 por 3).
Pentium II
¿El nuevo super-extra-chip? Pues no del todo. En realidad, se trata del viejo
Pentium Pro, jubilado antes de tiempo, con algunos cambios (no todos para mejor) y en
una nueva y fantástica presentación, el cartucho SEC: una cajita negra superchula que
en vez de a un zócalo se conecta a una ranura llamada Slot 1.
Los cambios respecto al Pro son:

optimizado para MMX (no sirve de mucho, pero hay que estar en la onda, chicos);

nuevo encapsulado y conector a la placa (para eliminar a la competencia, como
veremos);

rendimiento de 16 bits mejorado (ahora sí es mejor que un Pentium en Windows
95, pero a costa de desaprovecharlo; lo suyo son 32 bits puros);

caché secundaria encapsulada junto al chip (semi-interna, como si dijéramos),
pero a la mitad de la velocidad de éste (un retroceso desde el Pro, que iba a la
misma velocidad; abarata los costes de fabricación).
Vamos, un chip "Pro 2.0", con muchas
luces y algunas sombras. La mayor sombra,
su método de conexión, el "Slot 1"; Intel lo
patentó, lo que es algo así como patentar un
enchufe cuadrado en vez de uno redondo
(salvando las distancias, no nos pongamos
Pentium Pro
puristas). El caso es que la jugada buscaba
conseguir que los PC fueran todos marca Intel; ¡y decían que los sistemas propietarios
eran cosa de Apple!
65
EL PROCESADOR
Eso sí, durante bastante tiempo fue el mejor chip del mercado, especialmente desde
que se dejó de fabricar el Pro.
AMD K6
Un chip meritorio, mucho mejor que el K5. Incluía la "magia"
MMX, aparte de un diseño interno increíblemente innovador y una
caché interna de 64 KB (no hace demasiado, ese tamaño lo tenían las
cachés externas; casi da miedo).
Se "pincha" en un zócalo de Pentium normal (un socket 7, para ser precisos) y la
caché secundaria la tiene en la placa base, a la manera clásica. Pese a esto, su
rendimiento es muy bueno: mejor que un MMX y sólo algo peor que un II, siempre que
se pruebe en Windows 95 (NT es terreno abonado para el Pentium II).
Aunque es algo peor en cuanto a cálculos de coma flotante (CAD y juegos), para oficina
es la opción a elegir en todo el mundo... excepto España. Aquí nos ha encantado lo de
"Intel Pentium Inside", y la gente no compra nada sin esta frase, por lo que casi nadie lo
vende y mucho menos a los precios ridículos de lugares como EEUU o Alemania. Oferta y
demanda, como todo; no basta con una buena idea, hay que convencer. De todas
formas, hasta IBM lo usa en algunos de sus equipos; por algo será.
6x86MX (M2) de Cyrix (o IBM)
Nada que añadir a lo dicho sobre el 6x86 clásico y el K6 de AMD;
pues eso, un chip muy bueno para trabajo de oficinas, que incluye MMX y
que nunca debe elegirse para CAD o juegos (peor que los AMD).
Como antes, su ventaja es el precio, pero por desgracia no en España...
Celeron (Pentium II light)
En breve: un Pentium II sin la caché secundaria. Pensado para liquidar el mercado
de placas base tipo Pentium no II (con socket 7, que se dice) y liquidar definitivamente a
AMD y otras empresas molestas que usan estas placas. Esta gente de Intel no tiene
compasión, sin duda...
Muy poco recomendable, rendimiento mucho más bajo que el de Pentium II, casi
idéntico al del Pentium MMX (según lo que la misma Intel dixit, no yo).
66
EL PROCESADOR
AMD K6-2 (K6-3D)
Consiste en una revisión del K6, con un núcleo similar pero añadiéndole
capacidades 3D en lo que AMD llama la tecnología 3DNow! (algo así como un MMX para
3D).
Además, generalmente trabaja con un bus de 100 MHz hacia caché y memoria, lo
que le hace rendir igual que un Pentium II en casi todas las condiciones e incluso mucho
mejor que éste cuando se trata de juegos 3D modernos (ya que necesitan estar
optimizados para este chip o bien usar las DirectX 6 de Microsoft).
Microprocesadores Actuales
Los que incorporan los computadores que se venden ahora en las tiendas.
Evidentemente, esta categoría tiene "fecha de caducidad", y en este vertiginoso mundo
del hardware suele ser demasiado corta...
AMD K6-III
Un micro casi idéntico al K6-2, excepto por el "pequeño detalle" de que incluye
256 KB de caché secundaria integrada, corriendo a la velocidad del micro (es
decir, a 400 MHz o más), al estilo de los Celeron Mendocino.
Esto le hace mucho más rápido que el K6-2 (en ocasiones, incluso más rápido que
el Pentium III) en aplicaciones que utilicen mucho la caché, como las ofimáticas o casi
todas las de índole "profesional"; sin embargo, en muchos juegos la diferencia no es
demasiado grande (y sigue necesitando el uso de las instrucciones 3DNow! para exprimir
todo su potencial).
Celeron "A" (con caché)
Una revisión muy interesante
del Celeron que incluye 128 KB de
caché secundaria, la cuarta parte de
la
que tiene un
Pentium
II.
Pero
mientras que en los Pentium II dicha
caché
trabaja
a
la
mitad
de
Celeron A
la
velocidad interna del micro (a 150 MHz para un Pentium II a 300 MHz, por ejemplo), en
67
EL PROCESADOR
los nuevos Celeron trabaja a la misma velocidad que el micro, o lo que es lo mismo: ¡a
300 MHz o más!
Gracias a esto, su rendimiento es casi idéntico al de
un Pentium II de su misma velocidad de reloj, lo cual ha
motivado que lo sustituya como modelo de entrada en el
mercado, quedándose los Pentium III y 4 como modelos de
gama alta.
En la actualidad se fabrica únicamente en formato
Socket 370, un formato similar al de los antiguos Pentium
de coste más ajustado que el Slot 1. Según la revisión de núcleo que utilice necesita una
u otra variante de este zócalo: PPGA para el antiguo núcleo Mendocino y FC-PGA para los
modernos Coppermine-128.
Pentium III
Este micro sería al Pentium II lo que el K6-2 era al K6; es
decir, que su única diferencia de importancia radica en la
incorporación
de
unas
nuevas
instrucciones
(las
SSE,
Streaming SIMD Extensions), que aumentan el rendimiento
matemático
y
multimedia...
pero
sólo
en
aplicaciones
específicamente optimizadas para ello.
Los primeros modelos, con núcleo Katmai, se fabricaron todos en el mismo
formato Slot 1 de los Pentium II, pero la actual revisión Coppermine de este micro
utiliza mayoritariamente el Socket 370 FC-PGA.
Muchos denominamos al Pentium III Coppermine "el auténtico Pentium III",
porque al tener sus 256 KB de caché secundaria integrados en el núcleo del micro su
rendimiento mejora en todo tipo de aplicaciones (incluso las no optimizadas). Pero tal
vez no sea suficiente para vencer al siguiente micro de esta lista, el...
68
EL PROCESADOR
AMD Athlon (K7)
La gran apuesta de AMD: un micro con una
arquitectura totalmente nueva, que le permite ser
el más rápido en todo tipo de aplicaciones. 128 KB
de caché de primer nivel (cuatro veces más que
el Pentium III), bus de 200 ó 266 MHz (realmente
100 ó 133 MHz físicos con doble aprovechamiento
de cada señal), 512 ó 256 KB de caché secundaria
(los 256 KB integrados = más rápida), instrucciones 3DNow! para multimedia... y el
mejor micro de todos los tiempos en cálculos matemáticos (¡todo un cambio, tratándose
de AMD!).
Su único y mínimo inconveniente radica en que necesita placas base específicamente
diseñadas para él, debido a su novedoso bus de 200 MHz o más y a sus métodos de
conexión, "Slot A" (físicamente igual al Slot 1 de Intel, pero incompatible con él... entre
otras cosas porque Intel no quiso dar licencia a AMD para utilizarlo) o "Socket A" (un
zócalo cuadrado similar al Socket 370, pero con muchos más pines). Los modelos
actuales usan el núcleo Thunderbird, con la caché secundaria integrada.
AMD Duron
En breve: un micro casi idéntico al Athlon Socket A (no
existe para Slot A) pero con menos memoria secundaria (64
KB), aunque integrada (es decir, más rápida, la caché va a la
misma velocidad que el micro).
De
fantástica
relación
calidad/precio,
es
además
excelente candidato al overclocking... toda una joya, pese a
estar destinado supuestamente al mercado "de consumo".
Pentium 4
La última apuesta de Intel, que representa todo un cambio de arquitectura; pese
a su nombre, internamente poco o nada tiene que ver con otros miembros de la familia
Pentium.
69
EL PROCESADOR
Se trata de un micro peculiar: su diseño permite alcanzar mayores velocidades de
reloj (más MHz... y GHz), pero proporcionando mucha menos potencia por cada
MHz que los micros anteriores; es decir, que un Pentium 4 a 1,3 GHz puede ser
MUCHO más lento que un Pentium III a "sólo" 1 GHz. Para ser competitivo, el Pentium 4
debe funcionar a 1,7 GHz o más.
Por otro lado, incluye mejoras importantes: bus de 400
MHz (100 MHz físicos cuádruplemente aprovechados) y
nuevas instrucciones para cálculos matemáticos, las SSE2.
Éstas son muy necesarias para el Pentium 4, ya que su
unidad de coma flotante es MUCHÍSIMO más lenta que la
del Athlon; si el software está específicamente preparado
(optimizado) para las SSE2, el Pentium 4 puede ser muy
rápido, pero si no... y el caso es que, por ahora, hay muy
pocas aplicaciones optimizadas.
EL OVERCLOCKING
Consiste en eso mismo, en subir la velocidad de reloj por encima de la nominal del
micro. Esta práctica puede realizarse a propósito o bien haber sido víctima de un engaño,
según; en cualquier caso, entraña riesgos para el micro overclockeado.
Insisto: entraña riesgos para el micro; no diga que no se le avisó. Los micros de una
misma clase nacen, en líneas generales, todos iguales. Luego se prueban y se les
clasifica con tal o cual velocidad, según la demanda del mercado y lo que se ha
comprobado que resisten sin fallo alguno.
Esto quiere decir que muchos micros pueden ser utilizados a más velocidad de la que
marcan,
aunque
fuera
de
especificaciones
y
por
tanto
de
garantía.
Las
consecuencias negativas son tres:
1. que no funcione a más velocidad de la marcada (pues nada, se le deja como viene
y en paz);
2. que se estropee (rara vez pasa si se sube de manera escalonada y vigilando si
falla);
3. que funcione pero se caliente (pasará SIEMPRE; al ir más rápido, genera más
calor).
EL PROCESADOR
70
Las consecuencias positivas, que tenemos un micro más rápido gratis. Si desea
arriesgarse, coja el manual de su placa base.
Bueno, está avisado de lo bueno y lo malo, usted verá. Por cierto, lo normal es
overclockear micros Pentium o superiores; en los 486 es posible, aunque deben subirse
menos (de 33 a 40 MHz, o de 66 a 80, por ejemplo). Hacer overclocking con un 386 o
inferior es bastante complicado y no merece la pena.
MICROS FALSOS
La informática es terreno abonado para las falsificaciones. Sin el serigrafiado
todos los chips parecen iguales, y es imposible conocer su marca, modelo o velocidad.
Esto se aplica a la perfección para los micros; antiguamente era raro que alguien
vendiera un micro falsificado, pero con la llegada del Pentium el problema llegó a adquirir
dimensiones alarmantes, con cuerpos como la Interpol movilizados a la caza del
falsificador.
Los engaños más típicos suelen ser:

Falsificación en sí: se coge un chip, se le borra o tapa el serigrafiado y se
escribe encima, consiguiendo un nuevo chip más caro. Al principio la falsificación
era muy cutre, y un poco de acetona la revelaba; hoy en día, ni un experto puede
estar seguro. Es muy difícil de evitar, como no sea acudiendo a empresas de
reconocido prestigio donde el riesgo sea mínimo o escogiendo un chip barato, que
seguro que no han falsificado. También se puede exigir que sea un chip no OEM,
sino con su propia caja y garantía sellada, pero estos chips son mucho más caros
(y la caja puede ser falsa...)

Intercambio de micros: un día se nos ocurre levantar el ventilador del micro y
¡sorpresa!, es un Pentium normal en vez de MMX; o va a otra velocidad, por
ejemplo. Se va a la tienda y nos dicen que es un error, que no entienden qué
puede haber pasado... y como no queremos roche y puede que tengan razón (en
cuyo caso lo que son es unos traferos), dejamos que nos cambien el chip y nos
vamos.

Cambios de marca: algo muy común en la época 386 y 486, ahora mucho
menos. Pagábamos un micro Intel y nos vendían un AMD, Cyrix o Texas
Instruments; micros que a veces son iguales o mejores (mi 386 de AMD era
EL PROCESADOR
71
fantástico, y aún podría funcionar sin problemas) pero que son más baratos, por
lo que el ahorro es para el vendedor, no para nosotros.
Se sabe de historias aberrantes, se lo aseguro; Pentium MMX más lentos que un 486,
micros con soldimix encima del serigrafiado... falsos, claro; y cosas aún peores. Las
soluciones, a continuación:

Exija ver el interior del computador: si compra en un sitio de “dudosa”
garantía tipo Wilson, Galerías Garcilaso, La Cachina, etc. exige que te enseñen el
interior, claro, se supone que sabes que es lo que te están vendiendo, si no, para
que demonios pides que muestren el interior. En esos lugares puedes acceder a
los mejores computadores del mercado, pero te pueden dar gato por liebre si te
ven con cara de novato. Si no quieres, vete a pagar hasta el triple de tu dinero a
Saga Falabella o a Ripley por un computador de marca que pueda dejar mucho
que desear. La ventaja es el crédito, pero créeme, no te saldrá jamás a cuenta...

Exija siempre una factura detallada (si pagas impuestos): y, por el amor de
Dios, con el IGV incluído. Será tu única garantía de reclamación, así que
asegúrese de que está TODO al detalle: modelos, cantidades (RAM, disco duro) y,
sobre todo, marcas. Por ejemplo, "chip 200 MHz" no es nada; ¿qué es: un
Pentium, un MMX, un II, un K6, un 6x86? (o un 486 superdopado, quién sabe).

Aprenda de Hardware. Si no entiende nada de la informática actual, lea revistas
(varias), asesórese por un amigo, o incluso de un “profesor”.
EL BIOS
El Bios: "Basic Input-Output System", sistema básico de entrada-salida. Programa
incorporado en un chip de la placa base que se encarga de realizar las funciones básicas
de manejo y configuración del ordenador.
Cuando encendemos el ordenador, el sistema operativo se encuentra o bien en el
disco duro o bien en un disquete; sin embargo, si se supone que es el sistema operativo
el que debe dar soporte para estos dispositivos, ¿cómo demonios podría hacerlo si aún
no está cargado en memoria?
Lo que es más: ¿cómo sabe el ordenador que tiene un disco duro (o varios)? ¿Y la
disquetera? ¿Cómo y donde guarda esos datos, junto con el tipo de memoria y caché o
algo tan sencillo pero importante como la fecha y la hora? Pues para todo esto está la
BIOS.
Resulta evidente que la BIOS debe poderse modificar para alterar estos datos (al
añadir un disco duro o cambiar al horario de verano, por ejemplo); por ello las BIOS se
implementan en memoria. Pero además debe mantenerse cuando apaguemos el
ordenador, pues no tendría sentido tener que introducir todos los datos en cada
arranque; por eso se usan memorias especiales, que no se borran al apagar el
ordenador: memorias tipo CMOS, por lo que muchas veces el programa que modifica la
BIOS se denomina "CMOS Setup".
En realidad, estas memorias sí se borran al faltarles la electricidad; lo que ocurre
es que consumen tan poco que pueden ser mantenidas durante años con una simple
pila, en ocasiones de las de botón (como las de los relojes). Esta pila (en realidad un
acumulador) se recarga cuando el ordenador está encendido, aunque al final fenece,
como todos...
Entrando en la BIOS
Ante todo, conózcanse. La BIOS es la responsable de la mayoría de esos extraños
mensajes que surgen al encender el ordenador, justo antes del "Iniciando MS-DOS" o
bien Windows 95, NT, Linux, OS/2 o lo que sea. La secuencia típica en que aparecen (eso
sí, muy rápido) suele ser:

Primero los mensajes de la BIOS de la tarjeta gráfica (sí, las tarjetas gráficas
suelen tener su propia BIOS, ¿passa algo?).
EL BIOS
73

El nombre del fabricante de la BIOS y el número de versión.

El tipo de microprocesador y su velocidad.

La revisión de la memoria RAM y su tamaño.

Un mensaje indicando cómo acceder a la BIOS ("Press Del to enter CMOS Setup"
o algo similar); volveremos sobre esto).

Mensajes de otros dispositivos, habitualmente el disco duro.
Todo esto sucede en apenas unos segundos; a veces, si el monitor está frío y
tarda en encender, resulta casi imposible verlos, no digamos leerlos, así que ármese de
valor y reinicie varias veces, ¡pero no a lo bestia! Espere a que termine de arrancar el
ordenador cada vez y use mejor el Ctrl-Alt-Del (es decir, pulsar a la vez y en este orden
las teclas "Ctrl", "Alt" y "Del" -el "Supr" de los teclados en español-) que el botón de
"Reset". Es más, si tiene un sistema operativo avanzado como OS/2, Linux, Windows 9x
o NT, debe hacerlo mediante la opción de reiniciar del menú correspondiente,
generalmente el de apagar el sistema (o con la orden "reboot" en Linux).
Bien, el caso es que al conjunto de esos mensajes se le denomina POST (Power-On Self
Test, literalmente autotesteo de encendido), y debe servirnos para verificar que no
existen mensajes de error, para ver si, grosso modo, la cantidad de memoria
corresponde a la que debería (puede que sean unos pocos cientos de bytes menos, eso
es normal y no es un error, es que se usan para otras tareas) y para averiguar cómo
se entra en la BIOS.
Generalmente se hará mediante la pulsación de ciertas teclas al arrancar,
mientras salen esos mensajes. Uno de los métodos más comunes es pulsar "Del", aunque
en otras se usa el "F1", el "Esc" u otra combinación de teclas (Alt-Esc, Alt-F1...). Existen
decenas de métodos, así que no le queda más remedio que estar atento a la pantalla o
buscar en el manual de su placa o en el sitio web del fabricante de la BIOS.
Por cierto, es bastante raro que un fabricante de placas base sea su propio suministrador
de BIOS, en general todas provienen de apenas un puñado de fabricantes: Award, AMI,
Phoenix y pocos más.
Manejo básico de la BIOS
Bien, ya entró en la BIOS. ¿Y ahora, qué? Bueno, depende de su BIOS en
concreto. Las BIOS clásicas se manejan con el teclado, típicamente con los cursores y
las teclas de Intro ("Enter"), "Esc" y la barra espaciadora, aunque también existen BIOS
gráficas, las llamadas WinBIOS, que se manejan con el ratón en un entorno de
ventanas, lo cual no tiene muchas ventajas pero es mucho más bonito.
EL BIOS
74
La pantalla principal de una BIOS clásica es algo así:
Mientras que la de una WinBIOS tiene este aspecto:
Como se ve, casi la totalidad de las BIOS vienen en inglés, y aunque algunas de las
más modernas permiten cambiar este idioma por el español, conviene que sepa algo de
inglés o que se ayude de alguien que lo entienda. De cualquier modo, observamos que
existen varios apartados comunes a todas las BIOS:
EL BIOS

75
Configuración básica, llamado generalmente "Standard CMOS Setup" o bien
"Standard Setup".

Opciones de la BIOS, llamado "BIOS Features Setup" o "Advanced Setup".

Configuración avanzada y del chipset, "Chipset Features Setup".

Otras utilidades, en uno o varios apartados (autoconfiguración de la BIOS,
manejo de PCI, introducción de contraseñas -passwords-, autodetección de discos
duros...).
Pulse en las imágenes sobre los apartados que le interesen o siga leyendo para una
explicación en profundidad uno por uno. Los ejemplos corresponderán a BIOS clásicas de
las que se manejan por teclado, aunque sirven perfectamente para BIOS gráficas, que
sólo añaden más colorido a las operaciones.
Tenga en cuenta que JUGAR CON LA BIOS PUEDE SER REALMENTE PELIGROSO para
su ordenador, así que COPIE LA CONFIGURACIÓN ACTUAL en unos folios antes de
tocar nada, e incluso si no piensa hacer modificaciones; nunca se sabe, recuerde la Ley
de Murphy...
Y por supuesto, aunque los consejos que se darán sirven para la mayoría de los
casos, nadie mejor que el fabricante para hablar de su propio producto, así que léase en
profundidad el manual de su placa base y téngalo a mano. Si no se lo entregaron
con el ordenador, mal asunto. Intente que se lo den o que le hagan una copia, aunque si
se trata de un ordenador de marca a veces es casi imposible; miedo a que les copien sus
secretos o afán de tener al usuario atado a su servicio técnico, vaya usted a saber...
Por cierto, para salir de un menú se suele usar la tecla "Esc"; además, ningún cambio
queda grabado hasta que no se lo indicamos al ordenador al salir de la BIOS (lo cual es
un consuelo para los manazas).
Configuración básica
¿Ya ha copiado la configuración actual de su BIOS en unos folios? ¿Y a qué
espera? En fin... bajo el nombre de Standard CMOS Setup o similar, se suele englobar
la puesta al día de la fecha y hora del sistema, así como la configuración de discos duros
y disqueteras. La pantalla de manejo suele ser similar a ésta:
EL BIOS
76
Cambiar la fecha y hora no tiene más historia que situarse sobre ella e introducir
la nueva, bien mediante el teclado, el ratón, los cursores o las teclas de avance y
retroceso de página. Practique un poco con ello, así estará preparado para cuando vaya a
cambiar algo más crítico.
El tipo de disquetera y pantalla es también sencillo de entender y manejar. Salvo
casos prehistóricos la pantalla será VGA o bien EGA, y esto último ya es bastante raro;
cuando dice "monocromo" suele referirse a pantallas MGA, ésas de fósforo blanco, verde
o ámbar de hace más de diez años, no a las VGA de escala de grises modernas, téngalo
en cuenta.
Lo más interesante y difícil está en la configuración de los discos duros. En
general serán únicamente discos del tipo IDE (incluyendo los EIDE, Ata-4, Ultra-DMA y
demás ampliaciones del estándar), en ningún caso SCSI (vaya, casi un pareado, SCSI se
dice "es-ca-si") ni otros antiguos como MFM o ESDI, que se configuran de otras formas,
por ejemplo mediante otra BIOS de la propia controladora SCSI.
En los casos antiguos (muchos 486 y anteriores) podremos dar valores sólo a dos
discos duros, que se configuran como Maestro, master, el primero y Esclavo, slave, el
segundo, del único canal IDE disponible. En los casos más modernos de controladoras
EIDE podremos configurar hasta cuatro, en dos canales IDE, cada uno con su maestro y
su esclavo. Los campos a rellenar suelen ser:
77
EL BIOS

Tipo (Type): o uno predefinido, o Auto para que calcule el ordenador los valores
correctos, o User para introducir los valores a mano, o bien None para indicar que
no hay ningún disco.

Tamaño (Size): lo calcula el ordenador a partir de los datos que introducimos.

Cilindros (Cylinders): pues eso, cuántos son.

Cabezas (Heads): lo dicho, cuántas son.

Precompensación de escritura (WritePrecomp): un parámetro muy técnico,
usado sobre todo en los discos antiguos. En los modernos suele ser cero.

Zona
de
aparcado
de
las
cabezas
(LandZone):
otro
tecnicismo,
que
modernamente suele ser cero o bien 65535 (que en realidad significa cero).

Sectores (Sectors): pues eso, cuántos hay por cada pista.

Modo de funcionamiento (Mode): para discos pequeños, de menos de 528 MB,
el modo Normal. Para discos de más de 528 MB (cualquiera moderno tiene 4 ó 5
veces esa capacidad), el modo LBA o bien el Large, menos usado y sólo
recomendado si no funcionara el LBA. En muchos casos se permite la
autodetección (opción Auto).
Por ejemplo, en la imagen aparece un disco de 420 MB, con 986 cilindros, 16
cabezas... y trabajando en modo Normal, puesto que no supera los 528 MB. Todos estos
valores suelen venir en una pegatina adherida al disco duro, o bien se pueden hallar
mediante la utilidad de autodetección de discos duros, que se ilustra más adelante.
En cualquier caso, generalmente existe más de una combinación de valores posible.
Por cierto, los lectores de CD-ROM de tipo IDE no se suelen configurar en la BIOS; así,
aunque realmente ocupan uno de los lugares (usualmente el maestro del segundo canal
o el esclavo del primero) se debe dejar dichas casillas en blanco, eligiendo None o Auto
como tipo.
Opciones de la BIOS
O generalmente, en inglés, BIOS Features. Se trata de las diversas posibilidades
que ofrece la BIOS para realizar ciertas tareas de una u otra forma, además de habilitar
(enable) o deshabilitar (disable) algunas características. Las más importantes son:

CPU Internal cache: el habilitado o deshabilitado de la caché interna del
microprocesador. Debe habilitarse (poner en Enabled) para cualquier chip
con caché interna (todos desde el 486). Si la deshabilitamos, podemos hacer
que nuestro Pentium 75 vaya como un 386 rápido, lo cual no sirve para nada
78
EL BIOS
como no sea jugar a un juego muy antiguo que va demasiado rápido en nuestro
ordenador.

External Caché: lo mismo pero con la caché externa o de segundo nivel. No
tiene
tanta
trascendencia
como
la
interna,
pero
influye
bastante
en
el
rendimiento.

Quick Power On Self Test: que el test de comprobación al arrancar se haga
más rápido. Si estamos seguros de que todo funciona bien, merece la pena
hacerlo para ganar unos cuantos segundos al arrancar.

Boot Sequence: para que el ordenador busque primero el sistema operativo en
un disquete y luego en el disco duro si es "A,C" o al revés si es "C,A". Útil para
arrancar o no desde disquetes, o en BIOS modernas incluso desde una unidad Zip
o SuperDisk internas.

Swap Floppy Drive: si tenemos dos disqueteras (A y B), las intercambia el orden
temporalmente.

Boot Up NumLock Status: para los que prefieran arrancar con el teclado
numérico configurado como cursores en vez de cómo números.

IDE HDD Block Mode: un tipo de transferencia "por bloques" de la información
del disco duro. Casi todos los discos duros de 100 MB en adelante lo soportan.

Gate A20 Option: un tecnicismo de la RAM; mejor conectado.

Above 1 MB Memory Test: por si queremos que verifique sólo el primer MB de
RAM o toda (above = "por encima de"). Lo primero es más rápido pero menos
EL BIOS
79
seguro, evidentemente, aunque si no ha fallado nunca ¿por qué debería hacerlo
ahora?

Memory Parity Check: verifica el bit de paridad de la memoria RAM. Sólo debe
usarse si la RAM es con paridad, lo que en la actualidad es muy raro, tanto en
FPM como EDO o SDRAM. Las únicas memorias con paridad suelen estar en 486s
o Pentium de marca, como algunos IBM.

Typematic Rate: para fijar el número de caracteres por segundo que aparecen
cuando pulsamos una tecla durante unos instantes sin soltarla. Sólo útil para
maniáticos; alguna vez se dice que está para discapacitados, pero me temo que
su utilidad en ese sentido es desgraciadamente muy escasa.

Numeric Processor: para indicar al ordenador que existe un coprocesador
matemático. Puesto que desde la aparición del 486 DX esto se da por supuesto,
está en proceso de extinción.

Security Option: aunque a veces viene en otro menú, esta opción permite elegir
si queremos usar una contraseña o password cada vez que arranquemos el
equipo (System), sólo para modificar la BIOS (Setup o BIOS) o bien nunca
(Disabled).

IDE Second Channel Option: indica si vamos a usar o no el segundo canal IDE
(sólo en controladoras EIDE, claro), en cuyo caso le reserva una IRQ,
generalmente la 15.

PCI/VGA Palette Snoop: esto es demasiado complejo y arriesgado para
atreverme a liarle, aunque si quiere una respuesta le diré que se suele utilizar
cuando tenemos dos tarjetas de vídeo (o una tarjeta añadida sintonizadora de
televisión) y los colores no aparecen correctamente. Remítase al manual de su
tarjeta gráfica para ver si debe habilitarlo.

Video Bios ROM Shadow: si se habilita, copiará la BIOS de la tarjeta gráfica
desde la lenta ROM en la que está a la rápida RAM del sistema, lo que acelera el
rendimiento. Suele estar habilitada sin dar problemas, salvo quizá en Linux.

(Adaptor) ROM Shadow: lo mismo pero para otras zonas de la BIOS. En este
caso se suelen deshabilitar, para evitar problemas innecesarios, aunque puede
probar y ver si aumenta la velocidad.
Configuración avanzada y del chipset
Son parámetros que indican qué características del chipset deben habilitarse y
cómo. Afecta habitualmente a la memoria RAM, a las cachés (interna y externa) y a
veces al micro, a los buses ISA, Vesa, PCI y AGP y a otros dispositivos como los puertos
serie y paralelo.
80
EL BIOS
Este terreno puede ser algo peligroso, así que apunte todo antes de cambiar
nada; lo más fácil es dejar las más opciones que pueda en Auto, aunque con eso puede
que no saque el máximo de rendimiento. Y es que para ganar hay que sufrir...

Auto Configuration: pues eso, configuración automática; la tabla de salvación
cuando no se consigue hacer a mano. Los valores que da tras una primera
autoconfiguración pueden ser válidos como punto de partida, así que como
siempre, apúntelos antes de modificarlos.

ISA Bus Clock: la velocidad del bus ISA, que en teoría debe ser unos 8 MHz. A
veces se introduce como una cifra en MHz y otras veces en función del bus del
sistema (el PCLK), por ejemplo como 1/3 cuando éste es a 33 MHz, como en los
386 y 486 a 33 MHz o 486 a 66 y 100 (que van a 33 externamente). Cuanto más
rápido sea el bus, mejor, pero no se pase: 10 ó 12 MHz ya está bien, más puede
ser arriesgado y se supone que las tarjetas ISA no están preparadas para nada
por encima de 8.

Velocidad de la RAM:
en
esto
existen
múltiples formas de
proceder.
Evidentemente, cuanto mayor le indiquemos que es la velocidad de la RAM más
rápido irá el sistema, pero en muchas ocasiones la RAM no es tan rápida o de
calidad como sería deseable y la estabilidad del sistema se resiente, sobre todo al
cargarlo de trabajo. Los valores que indican esta velocidad son los ciclos de
acceso a RAM, los ciclos de espera (Clock Cycles o, a veces, Wait States) que el
rápido microprocesador concede a la lenta RAM antes de mandarle o leer de ella la
información.
En
casi
todas
las
BIOS
existen
opciones
para
configurar
automáticamente estos valores; en algunas BIOS basta con introducir la velocidad
81
EL BIOS
en nanosegundos de la memoria, así como su tipo (normal -FPM-, EDO o SDRAM);
en otras se debe poner la cifra más baja en ciclos. Por ejemplo, una ráfaga
habitual en lectura (Read) puede ser 7-3-3-3, y se suele solicitar ese 3 como valor
de DRAM Read Timing o DRAM Read Wait State (o Write para escritura). Para EDO
o FPM rápida ese 3 puede ser un 2 y para SDRAM suele ser un 1. El 7 puede ser
menor, incluso un 5 si tenemos un buen chipset y memoria rápida. Otras veces se
indica la velocidad de la memoria simplemente describiéndola como Slowest,
Slower,
Faster
y
Fastest,
de
menos
a
más
rápida.
Así que mire los valores por defecto y vaya subiéndolos (o bajándolos, si son
ciclos de espera) de uno en uno, tras lo cual reinicie y observe el rendimiento y la
estabilidad del ordenador. Pruebe
con Windows 9x, NT o similar, así
como con algún juego exigente
(mismamente Quake), no con el
viejo DOS, que lo soporta casi
todo. En cuanto note inestabilidad,
vuelva al valor anterior y ya está.

Ajustes de la caché: similares a
los de la RAM. Algunos consisten en modificar los tiempos de acceso, otros en
modificar la forma de acceder a la caché. De cualquier forma, esto depende
enteramente de las capacidades de la caché misma, así que juegue poco con
estos valores. Para los arriesgados o curiosos, el modo Write Back es mejor que el
Write Thru (o Through), aunque no puede usarse siempre.

Vídeo y System Cacheable (Shadow): como se comentó en el apartado de
opciones de la BIOS, copiar la BIOS de la tarjeta de vídeo o del sistema de la
lenta ROM a la rápida RAM o, en este caso, usar la caché para lo mismo. Se
supone que debería aumentar el rendimiento, pero puede dar problemas con
sistemas operativos de 32 bits modernos.

Manejo
de
dispositivos:
hoy
en
día
los
chipsets
deben
manejar
las
controladoras de dispositivos tales como discos duros, puertos serie, etc., que
suelen estar incorporadas a la placa base. No lo explicaremos por ahora, puesto
que muchas veces existe un menú dedicado en exclusiva a este apartado,
denominado generalmente Integrated Peripherals.

Configuración por software de la CPU: en la actualidad, bastantes placas base
han dejado de lado el método clásico para configurar la CPU y han optado por
soluciones jumperless (literalmente, "sin jumpers"), autodetectando los valores
correctos de velocidad de bus, multiplicador y voltaje y/o permitiendo que el
usuario
los
seleccione
mediante
un
sencillo
menú
en
la
BIOS.
82
EL BIOS
Como ejemplo tenemos el programa SoftMenu presente en las conocidas placas
base Abit, entre ellas la BH6, que durante meses ha sido la placa de ensueño para
los
overclockers.
Y
es
que
aunque
esta
característica
ahorra
tiempo
y
complicaciones a cualquiera, donde se ve toda su potencia es cuando queremos
ver hasta dónde podemos forzar nuestro micro... sin pasarnos y sabiendo que
esto se supone que anula su garantía, ojo.
Periféricos integrados
Las placas base modernas (desde las de los últimos 486) suelen tener integrados los
chips controladores del disco duro, y en muchas ocasiones manejan también las
disqueteras, los puertos serie y el puerto paralelo. Por ello, las BIOS tienen diversos
apartados para manejar estos dispositivos, entre ellos:

Conexión o desconexión de dichas controladoras: de especial importancia en
el caso del segundo canal IDE, que en ocasiones está deshabilitado por defecto, y
que deberemos habilitar para conectar más de dos dispositivos IDE (o bien uno
lento y uno rápido sin mezclarlos en el mismo canal, lo que baja el rendimiento).

Modos de acceso a discos duros (PIO y/o UltraDMA): los discos modernos
admiten 5 modos PIO, del más lento, el PIO-0 o no soporte de este tipo de acceso
(en discos antiguos, de 100 MB o menos), hasta el más rápido, el modo PIO-4.
Además, recientemente ha aparecido el modo UltraDMA, aún más rápido. Si la
controladora está integrada en la placa base, aquí debe especificar esos datos.
Búsquelos en el manual de su disco duro, en Internet en la página del fabricante o
bien seleccione Auto y no se complique más.

Direcciones e interrupciones (IRQs) de los puertos: bien sean los puertos
serie o el paralelo. Resulta muy raro necesitar cambiar los valores por defecto,
pero podría ser necesario para evitar conflictos con otros dispositivos que usen
esos mismos valores.

Tipo de puerto paralelo: el antiguo estándar de puerto paralelo se ha quedado
un tanto anticuado hoy en día, sobre todo si lo que queremos conectar no es una
impresora sino un escáner o una unidad Zip; por ello, se suele poder seleccionar
otras posibilidades más avanzadas como ECP o EPP. Busque en el manual del
periférico para saber qué modo debe escoger.

Control del puerto de infrarrojos: aunque muy pocas placas base incluyen los
adaptadores y cables necesarios, modernamente casi todas traen los conectores
para instalar un puerto de infrarrojos en su sistema. Generalmente deberá
EL BIOS
83
habilitarse y seleccionar su tipo, dirección de memoria, IRQ y si debe
redireccionar la información de COM2 a este puerto.
Administración de energía
En este menú, relativamente reciente (no se implantó hasta bien entrada la época
de los 486), es donde se configuran las características de ahorro de energía del
ordenador.
Esto puede ser algo totalmente superfluo, por ejemplo si vamos a usar el ordenador
de forma continuada al máximo de potencia, o bien algo fundamental, como ocurre en
ordenadores portátiles o sencillamente si tenemos la mala costumbre de encender el
ordenador al llegar a la oficina y no apagarlo hasta la hora de salir, tanto si lo vamos a
usar como si no.

Power Management: literalmente, administración de energía. Es donde se
selecciona si queremos habilitar el ahorro de energía y de qué forma;
generalmente se ofrecen Disable (deshabilitado), User define (definido por el
usuario) y algunas opciones predeterminadas para un ahorro mínimo o máximo.

PM Control by APM: una opción muy importante; determina si el control de
energía deberá hacerse según el estándar APM (Advanced Power Management,
administración avanzada de energía), lo que entre otras cosas permite que
Windows sea capaz de suspender el equipo a voluntad o, si utilizamos una fuente
ATX, que el sistema efectivamente se apague al pulsar "Apagar el sistema" en el
menú Inicio.

Video Off Method: ofrece diversas opciones para reducir el consumo del sistema
de vídeo, de las cuales la más interesante es DPMS, aunque no todos los
monitores y tarjetas gráficas la soportan; lea el manual de estos aparatos para
estar seguro, aunque si son modernos y de cierta calidad es muy probable que la
incorporen. La opción Blank Screen es simplemente un salvapantallas negro, lo
que puede ser útil en DOS.
84
EL BIOS

PM Timers: para controlar el tiempo que debe permanecer inactivo el ordenador
(System) o el disco duro (HDD) antes de que se active el ahorro de energía.
Existen 3 grados de ahorro de energía:
o
Doze: reduce la velocidad de la CPU (el microprocesador).
o
Standby: reduce la actividad de todo el ordenador.
o
Suspend: reduce al mínimo la actividad del ordenador; sólo debe
utilizarse con CPUs tipo SL, como son la mayoría de los 486 rápidos y
superiores.

PM Events: una larga serie de eventos o sucesos que deben ser controlados para
saber si el ordenador está inactivo o trabajando. Es habitual no controlar (Disable)
la actividad de la IRQ8 (reloj de la BIOS), ya que rara vez se la puede considerar
como totalmente inactiva.

CPU Fan Off in Suspend: si el ventilador de la CPU va conectado a la placa
base, lo apaga cuando el equipo está en suspenso, ya que en ese momento la
CPU está prácticamente parada.

Modem Wake Up: activa el equipo cuando se detecta una llamada entrante en el
módem. Necesita que el módem soporte esta característica y que esté conectado
a la placa base mediante un cable especial.

LAN Wake Up: igual que la anterior, pero para la tarjeta de red. También
necesita estar conectado a la placa base mediante un cable.
EL BIOS
85
Configuración de PNP y slots PCI
Un menú lleno de opciones complicadas (en esta página pocas no lo son), de la
clase que sería deseable no tener que alterar nunca; ése es mi consejo, escoja Auto
todas las veces que pueda, pero si tiene algún conflicto entre dispositivos (misma IRQ,
sobre todo)... Probablemente se pregunte qué tiene que ver PNP con PCI; pues bien, la
gran mayoría de dispositivos PCI soportan PNP, a diferencia de las tarjetas ISA, mucho
más problemáticas. Por eso, si su placa no tiene slots PCI (como las primeras para 486),
no se extrañe si este menú no aparece.
Ah, para el que no lo conozca, el Plug&Play, PNP o P&P, es una tecnología que
facilita la conexión de dispositivos, ya que se supone que basta con enchufar y listo.
Claro que no todos los dispositivos son PNP ni es una tecnología perfecta, si fuera así
este menú no existiría...

PNP OS Installed: informa al sistema de si hay un sistema operativo PNP
instalado, es decir, uno que soporta Plug&Play, como Windows 95 (o eso dicen
que hace...), en cuyo caso pasa a éste el control de los dispositivos PNP. De
cualquier forma, muchas veces lo que esta casilla indique no afecta al correcto
funcionamiento del sistema.

Resources Controlled by: pues eso, recursos controlados bien manual, bien
automáticamente. De nuevo, muchas veces es indiferente una u otra opción...
siempre que no haya problemas, claro.

IRQx/DMAx assigned to: una lista de las interrupciones (IRQs) y canales DMA
que podemos asignar manualmente, bien a tarjetas PCI/ISA PnP (compatibles
con PNP), bien a tarjetas Legacy ISA (tarjetas ISA no PNP, que son las más
conflictivas). Necesitaremos conocer los valores de IRQ y/o DMA a reservar, que
vendrán en la documentación del dispositivo problemático.

PCI IDE IRQ Map to: algo que muy probablemente no necesite cambiar nunca,
ya que sólo afecta a controladoras IDE no integradas en la placa base, sino en
forma de tarjeta, que no sean PNP.

Assign IRQ to USB: pues eso, si el puerto USB debe tener una interrupción
asignada o no. Si no tiene ningún dispositivo USB conectado (¿y quién los tiene
hoy en día?) puede liberar esa IRQ para otros usos; suele ser la misma
interrupción que para uno de los slots PCI o ISA.
86
EL BIOS
Autoconfiguración de la BIOS
Este apartado comprende diversas opciones que se proporcionan para facilitar la
configuración de la BIOS, de las cuales las más comunes son:

LOAD BIOS DEFAULTS: carga una serie de valores por defecto con poca o nula
optimización, generalmente útiles para volver a una posición de partida segura y
resolver problemas observados al arrancar.

LOAD SYSTEM DEFAULTS: una opción cuyos efectos varían de unas BIOS a
otras. En unos casos carga unos valores por defecto seguros (como LOAD BIOS
DEFAULTS), en otros carga unos valores ya optimizados para conseguir un
rendimiento adecuado, o incluso puede servir para cargar la última serie de
valores guardados por el usuario.

LOAD
TURBO
DEFAULTS:
carga
los
valores
que
estima
óptimos
para
incrementar el rendimiento.
En cualquier caso, debe tenerse en cuenta que los cambios no suelen ser guardados
automáticamente, sino que deben confirmarse al salir de la BIOS.
Otras utilidades
Las BIOS pueden hacer todavía más cosas, dependiendo del modelo en concreto;
algunas de las más usuales están a continuación.
Autodetección de discos duros IDE
Esta opción permite detectar los discos duros que están conectados al sistema, así
como su configuración. Resulta muy útil para simplificar la tarea de instalar un disco
nuevo, así como cuando los datos del disco no están completos o no parecen funcionar
en nuestra BIOS.
EL BIOS
87
Su uso es sencillísimo: se entra en este menú y se va detectando cada uno de los cuatro
posibles dispositivos IDE. Apunte las opciones que le aparezcan y pruebe a usarlas;
recuerde usar el modo LBA para discos de más de 528 MB.
Tenga en cuenta que muchas veces sólo por entrar en esta utilidad se alteran
automáticamente los valores de configuración del disco, así que después de salir de ella
compruebe si los cambios corresponden a los que quería realizar.
Control por password
Es decir, por una clave de acceso en forma de palabra secreta que sólo conozca usted.
Tenga en cuenta que si la olvida se verá en graves problemas, hasta el punto de tener
que borrar toda la BIOS para poder volver a usar el ordenador, así que apúntela en algún
lugar seguro.
Se suele poder seleccionar, bien en un menú específico o en las BIOS Features, entre
tener que introducir la clave cada vez que se arranca el ordenador o sólo cuando se van
a cambiar datos de la BIOS. Lo primero es el método ideal para seguridad, y además es
gratis; lo segundo es útil cuando gente inexperta pero manazas tiene acceso al
ordenador (por ejemplo, su sobrinito el tocalotodo).
Formateo de disco duro a bajo nivel
O, en inglés, HDD Low Level Format. Se trata de un formateo mucho más
intenso que el normal; no sólo elimina los datos, sino que reorganiza la propia estructura
del disco. Generalmente sólo debe usarse cuando el disco está fallando muy a menudo o
EL BIOS
88
ha sido infectado por un virus tremendamente resistente, y aun así no resulta
recomendable.
Si será duro, que realizarlo ¡suele ser motivo de pérdida de la garantía del disco
duro! En fin, si se atreve, ármese con los datos de configuración del disco (cilindros,
cabezas...) y rece por no tener que interrumpirlo por nada del mundo, cortes de luz
incluidos.
Antivirus
No, no crea que con esta opción podrá ahorrarse el comprar uno de esos
programas antivirus tan tristemente necesarios en los PC. En realidad, lo único que suele
hacer esta opción (que en ocasiones tiene un menú propio y en otras se engloba bajo el
Standard Setup, tal vez con el nombre de Virus Warning) es no permitir que se escriba
sobre la tabla de particiones o el sector de arranque del disco duro, bien sólo durante el
arranque o en cualquier momento, dependiendo del modelo concreto de BIOS.
La idea es impedir que un virus destroce el disco duro sin darle oportunidad a
cargar un disquete de arranque con un antivirus para desinfectar el sistema; no impedirá
la infección, pero es una medida más de seguridad y gratis. Por cierto, puede ser
necesario deshabilitar esta opción durante la instalación del sistema operativo o al
formatear el disco duro, no sea que la BIOS crea que se trata de un ataque viral.
Salir de la BIOS
Pues es sencillo, pero revisémoslo para los que no entiendan inglés en absoluto.
Generalmente existen dos opciones:

Save and Exit Setup: o bien Write to CMOS and Exit o algo similar; pues eso,
grabar los cambios y salir, con lo cual se reinicia el equipo. Debería pedirle
confirmación, en forma de "Y/N?" (Yes o No).

Exit Without Saving: o Do Not Write to CMOS and Exit o Discard Changes
and Exit o similar; lo contrario, salir sin grabar los cambios. También debería
pedir confirmación.
89
EL BIOS
Actualizar la BIOS
La
BIOS
maneja
temas
tan
críticos
como
el
soporte
de
uno
u
otro
microprocesador; además, como programa que es, no está exenta de fallos y se revisa
periódicamente para eliminarlos o añadir nuevas funciones.
Antiguamente, la única forma de actualizar una BIOS era extraer el chip de BIOS
y sustituirlo por otro, lo cual no se lo recomiendo a nadie, tanto por las posibles
incompatibilidades como por lo delicado y caro de la operación.
Modernamente han aparecido BIOS que pueden modificarse con un simple programa
software; se las denomina Flash-BIOS, y no son un invento desdeñable. Lo que es más,
la existencia de una de estas BIOS o no debería ser argumento de peso a la hora de
comprar una placa base, al menos entre los manitas informáticos. Tenga en cuenta que
mantener un registro de BIOS actualizadas es un servicio que sólo ofrecen los grandes
fabricantes de placas base... y aun así no siempre se puede encontrar la necesaria
actualización.
Vaya a Actualizar la BIOS para conocer los pasos concretos a seguir; eso sí, le
aviso de que deberá asegurarse de que la operación de actualización no se interrumpe
por nada del mundo, así que nada de hacer multitarea, meterle prisa o tocar el teclado
mientras se actualiza; son unos segundos, pero de importancia crítica. ¿Adivina qué día
del año va a saltar la luz? Efectivamente, justo cuando esté actualizando su BIOS.
La BIOS y la pila
Como dijimos, la pila conserva los datos de la BIOS cuando el
ordenador está apagado. Dura mucho (unos tres años de media), pero al
final se agota. Para cambiarla, apunte todos los datos de la BIOS,
desconecte todo y sustitúyala por una igual, o bien por un paquete externo
de baterías que se conectan a un jumper (un microinterruptor) de la placa
base; ambas cosas las debería encontrar en tiendas de electrónica.
Después conecte todo, arranque el ordenador, entre en la BIOS y reintroduzca
todos los datos, ya que se habrán borrado. ¿Se imagina si no tuviera una copia escrita
qué aventura? A mí me pasó hace años, y no me quedó más remedio que aprender sobre
BIOS... bueno, no hay mal que por bien no venga.
EL BIOS
90
Cómo saltarse la password de la BIOS
No, no se trata de hacer ilegalidades en ordenadores ajenos, se trata de saber qué
hacer si sufre una repentina amnesia o si la BIOS trae una password ya introducida; por
ejemplo, una BIOS con la que luché una vez tenía como password por defecto "AMI", el
nombre de su fabricante. Además, en ordenadores de segunda mano pasa no pocas
veces.
Los métodos son pocos; realmente sólo uno, y muy radical: borrar la BIOS entera.
Para ello existen tres formas:

Por software tipo "hacker": algunos programas se especializan en destrozar
BIOS, y si tiene suerte quizá incluso le digan cuál es la password sin tener que
borrar la BIOS. Busque en los "bajos fondos" de Internet... ¡y tenga cuidado con
estos programas y con los posibles virus!

Mediante un jumper en la placa base: en algunas, no todas, existe un jumper
que al cerrarse (al conectarse ambas patillas), y tras unos minutos de espera,
permite borrar la BIOS limpiamente.

Desconectando la pila: drástico, brutal, pero absolutamente efectivo.
En fin, sea como sea, recuerde tener su copia en papel de la BIOS y de la password para
no tener que llegar a estos extremos.
LA MEMORIA RAM
La memoria principal o RAM (acrónimo de Random Access Memory,
Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está
utilizando en el momento presente; son los "megas" famosos en número de 32, 64
ó 128 que aparecen en los anuncios de ordenadores.
Físicamente, los chips de
memoria
son
rectángulos
negros que suelen ir soldados
en grupos a unas plaquitas con
"pines" o contactos, algo así:
La diferencia entre la RAM y otros tipos de memoria de almacenamiento,
como los disquetes o los discos duros, es que la RAM es mucho (mucho) más
rápida, y que se borra al apagar el ordenador, no como éstos.
¿Cuánta debo tener?
No se engañe: cuanta más, mejor. Claro está que vale dinero, así que
intentaremos llegar a un compromiso satisfactorio, pero nunca quedándonos cortos.
Ante todo, no se queje: hoy en día el mega de RAM está a menos de 300 pesetas,
cuando durante años costó más de 5.000 pesetas (de entonces, no de ahora).
La cantidad de RAM necesaria es función únicamente de para qué use usted su
ordenador, lo que condiciona qué sistema operativo y programas usa (aunque en
ocasiones este orden lógico se ve trágicamente alterado). Sinópticamente, le
recomiendo una cantidad mínima de:
DOS
únicamente sistema operativo
menos de 1 MB
Ofimática (procesador de texto, hoja de 2 a 4 MB
cálculo...)
CAD (2D o 3D sencillo)
8 a 24 MB (según versión)
Gráficos / Fotografía
8 a 32 MB (según resolución y colores)
Juegos hasta 386
2 a 4 MB
LA MEMORIA RAM (Almacenamiento Primario)
Juegos modernos
92
8 a 16 MB
Windows 3.1x
únicamente
sistema
operativo
(DOS 4 MB
incluido)
Ofimática (procesador de texto, hoja de 6 a 10 MB
cálculo...)
CAD (2D o 3D sencillo)
12 a 28 MB (según versión)
Gráficos / Fotografía (nivel medio)
10 a 32 MB (según resolución y colores)
Windows 95
únicamente sistema operativo
12 a 16 MB
Ofimática (procesador de texto, hoja de 12 a 24 MB
cálculo...)
CAD (2D o 3D sencillo)
20 a 48 MB (según versión)
Gráficos / Fotografía (nivel medio)
16 a 40 MB (según resolución y colores)
Juegos
16 a 48 MB
Como ve, la misma tarea bajo distintos sistemas operativos y programas
necesita de distintas cantidades de RAM, aunque el resultado final del informe,
trabajo de CAD u hoja de cálculo sea el mismo. Y es que a veces la informática no
avanza, salvo como negocio (no para usted, claro).
Como ejemplo, en un 486 DX2-66 con 16 MB de RAM, un mismo archivo de
1 MB en AutoCAD 12 para DOS vuela, mientras que en el mismo equipo con la
versión 13 para Windows 95 se arrastra de mala manera, cuando no hace que se
"cuelgue" el equipo.
Visto esto, si va a comprar un ordenador nuevo, a día de hoy le recomiendo
64 MB de RAM, y a ser posible incluso 128. Sin embargo, no compre más que la
necesaria: un aumento de RAM aumentará el rendimiento sólo si había
escasez. La RAM vacía no sirve de nada, aunque como en todo, "mejor que
sobre...".
93
LA MEMORIA RAM (Almacenamiento Primario)
Tipos de RAM
Tantos como quiera: DRAM, Fast Page, EDO, SDRAM... y lo que es peor, varios
nombres para la misma cosa. Trataremos estos cuatro, que son los principales,
aunque en el apartado Otros tipos de RAM encontrará prácticamente todos los
demás (no pocos).

DRAM: Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la
más lenta (aunque recuerde: siempre es mejor tener la suficiente memoria
que
tener
la
más
rápida,
pero
andar
escasos).
Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70
nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar
entrada a la siguiente serie de datos. Por ello, es más rápida la de 70 ns que
la de 80 ns.

Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos
de 30 contactos. No se preocupe si tanto xIMM le suena a chino, es
explicado más abajo; pero si no puede esperar más, pulse aquí.

Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que
evoluciona directamente de ella, y se usa desde hace tanto que pocas veces
se las diferencia. Algo más rápida, tanto por su estructura (el modo de
Página
Rápida)
como
por
ser
de
70
ó
60
ns.
Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de
30 ó 72 contactos (los de 72 en los Pentium y algunos 486).

EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page;
permite empezar a introducir nuevos datos mientras los anteriores están
saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más
o menos).

Muy común en los Pentium MMX y AMD K6, con refrescos de 70, 60 ó 50 ns.
Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de
DIMMs de 168.

SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad
de la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a
10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es usada en
los Pentium II de menos de 350 MHz y en los Celeron.

PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos
100 MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más
modernos; teóricamente se trata de unas especificaciones mínimas que se
LA MEMORIA RAM (Almacenamiento Primario)
94
deben cumplir para funcionar correctamente a dicha velocidad, aunque no
todas las memorias vendidas como "de 100 MHz" las cumplen...

PC133: o SDRAM de 133 MHz. La más moderna (y recomendable).
SIMMs y DIMMs
Se trata de la forma en que se juntan los chips de memoria, del tipo que
sean, para conectarse a la placa base del ordenador. Son unas plaquitas alargadas
con conectores en un extremo; al conjunto se le llama módulo.
El número de conectores depende del bus de datos del microprocesador, que
más que un autobús es la carretera por la que van los datos; el número de carriles
de dicha carretera representaría el número de bits de información que puede
manejar cada vez.

SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30
contactos pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que
tiene un bus de datos de 32 bits, necesitamos usarlos de 4 en 4 módulos
iguales. Miden unos 8,5 cm (30 c.) ó 10,5 cm (72 c.) y sus zócalos suelen
ser de color blanco.

Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se
usan de 1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos
(iguales), porque el bus de datos de los Pentium es el doble de grande (64
bits).

DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos
generalmente negros; llevan dos muescas para facilitar su correcta
colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de
1 en 1 en los Pentium, K6 y superiores. Existen para voltaje estándar (5
voltios) o reducido (3.3 V).
Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM pero con
frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando
toda o parte de la memoria viene soldada en la placa (caso de algunos ordenadores
de marca).
Otros tipos de RAM

BEDO (Burst-EDO): una evolución de la EDO, que envía ciertos datos en
"ráfagas". Poco extendida, compite en prestaciones con la SDRAM.
95
LA MEMORIA RAM (Almacenamiento Primario)

Memorias con paridad: consisten en añadir a cualquiera de los tipos
anteriores un chip que realiza una operación con los datos cuando entran en
el chip y otra cuando salen. Si el resultado ha variado, se ha producido un
error y los datos ya no son fiables.

Dicho así, parece una ventaja; sin embargo, el ordenador sólo avisa de que
el error se ha producido, no lo corrige. Es más, estos errores son tan
improbables que la mayor parte de los chips no los sufren jamás aunque
estén funcionando durante años; por ello, hace años que todas las memorias
se fabrican sin paridad.

ECC: memoria con corrección de errores. Puede ser de cualquier tipo,
aunque sobre todo EDO-ECC o SDRAM-ECC. Detecta errores de datos y los
corrige; para aplicaciones realmente críticas. Usada en servidores y
mainframes.

Memorias
de
Vídeo:
para
tarjetas
gráficas.
De
menor
a
mayor
rendimiento, pueden ser: DRAM -> FPM -> EDO -> VRAM -> WRAM ->
SDRAM -> SGRAM
LOS PERIFERICOS
EL ESCANER
Ateniéndonos a los criterios de la Real Academia de la Lengua, famosa por la
genial
introducción
del
término
cederrón
para
denominar
al
CD-ROM,
probablemente nada; para el resto de comunes mortales, digamos que es la
palabra que se utiliza en informática para designar a un aparato digitalizador de
imagen.
Por digitalizar se entiende la operación de transformar algo analógico (algo físico,
real, de precisión infinita) en algo digital (un conjunto finito y de precisión
determinada de unidades lógicas denominadas bits). En fin, que dejándonos de
tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen
(fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y
modificar con el ordenador. Realmente un escáner no es ni más ni menos que los
ojos del ordenador.
Cómo funciona
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner:
se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz
reflejada hacia un dispositivo denominado CCD que transforma la luz en señales
eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC
(conversor analógico-digital) y se transmite el caudal de bits resultante al
ordenador.
El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el
elemento fundamental de todo escáner, independientemente de su forma, tamaño
o mecánica. Consiste en un elemento electrónico que reacciona ante la luz,
transmitiendo más o menos electricidad según sea la intensidad y el color de la luz
que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común, puede
que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara
de fotos digital...
La calidad final del escaneado dependerá fundamentalmente de la calidad del CCD;
los demás elementos podrán hacer un trabajo mejor o peor, pero si la imagen no es
captada con fidelidad cualquier operación posterior no podrá arreglar el problema.
Teniendo en cuenta lo anterior, también debemos tener en cuenta la calidad del
LOS PERIFERICOS
97
DAC, puesto que de nada sirve captar la luz con enorme precisión si perdemos
mucha de esa información al transformar el caudal eléctrico a bits.
Por este motivo se suele decir que son preferibles los escáners de marcas de
prestigio como Nikon o Kodak a otros con una mayor resolución teórica, pero con
CCDs que no captan con fidelidad los colores o DACs que no aprovechan bien la
señal eléctrica, dando resultados más pobres, más planos.
La resolución
No podemos continuar la explicación sin definir este término, uno de los parámetros
más utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un
escáner. La resolución (medida en ppp, puntos por pulgada) puede definirse como
el número de puntos individuales de una imagen que es capaz de captar un
escáner... aunque en realidad no es algo tan sencillo.
La resolución así definida sería la resolución óptica o real del escáner. Así,
cuando hablamos de un escáner con resolución de "300x600 ppp" nos estamos
refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede
captar 300 puntos individuales, mientras que en vertical llega hasta los 600 puntos;
como en este caso, generalmente la resolución horizontal y la vertical no coinciden,
siendo mayor (típicamente el doble) la vertical.
Esta resolución óptica viene dada por el CCD y es la más importante, ya que implica
los límites físicos de calidad que podemos conseguir con el escáner. Por ello, es un
método comercial muy típico comentar sólo el mayor de los dos valores,
describiendo como "un escáner de 600 ppp" a un aparato de 300x600 ppp o "un
escáner de 1.200 ppp" a un aparato de 600x1.200 ppp; téngalo en cuenta, la
diferencia es obtener o no el cuádruple de puntos.
Tenemos también la resolución interpolada; consiste en superar los límites que
impone la resolución óptica (300x600 ppp, por ejemplo) mediante la estimación
matemática de cuáles podrían ser los valores de los puntos que añadimos por
software a la imagen. Por ejemplo, si el escáner capta físicamente dos puntos
contiguos, uno blanco y otro negro, supondrá que de haber podido captar un punto
extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a
resoluciones absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no
obtenemos más información real que la que proporciona la resolución óptica
máxima del aparato. Evidentemente este valor es el que más gusta a los
anunciantes de escáners...
Por último está la propia resolución de escaneado, aquella que seleccionamos
para captar una imagen concreta. Su valor irá desde un cierto mínimo (típicamente
unos 75 ppp) hasta el máximo de la resolución interpolada. En este caso el valor es
LOS PERIFERICOS
98
siempre idéntico para la resolución horizontal y la vertical, ya que si no la imagen
tendría las dimensiones deformadas.
Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene
el color. Una fotografía en color resulta mucho más agradable de ver que otra en
tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante
que otro en blanco y negro; incluso un texto en el que los epígrafes o las
conclusiones tengan un color destacado resulta menos monótono e invita a su
lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto
cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban
las imágenes únicamente en blanco y negro o, como mucho, con un número muy
limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners
que podían captar color, aunque el proceso requería tres pasadas por encima de la
imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica
totalidad de los escáners captan hasta 16,7 millones de colores distintos en una
única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.
Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo
asignan los ordenadores los colores a las imágenes. En todos los ordenadores se
utiliza lo que se denomina sistema binario, que es un sistema matemático en el
cual la unidad superior no es el 10 como en el sistema decimal al que estamos
acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que
pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit
tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2
elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores;
etc, etc.
Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto
puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se
considera suficiente para casi todos los usos normales de una imagen, por lo que se
le suele denominar color real. La casi totalidad de los escáners actuales capturan
las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con
más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores
absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta
profundidad de color a 24 bits para mantener un tamaño de memoria razonable,
pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de
color más redundantes.
99
LOS PERIFERICOS
¿Cuánto ocupa una imagen?
Depende de la imagen (genial respuesta, ¿verdad?). Para saber exactamente cuál
va a ser el tamaño de una imagen, deberemos usar la siguiente fórmula:
Tamaño imagen (KB) = L x A x RH x RV x bits / 8.192
Donde L y A son las dimensiones de la imagen en pulgadas (una pulgada = 2,54
cm) y RH y RV las resoluciones horizontal y vertical respectivamente. Hagamos un
ejemplo rápido: una imagen DIN-A4 (aproximadamente 11,7x8,3 pulgadas)
escaneada a 300 ppp (300x300) con 24 bits de color (color real) ocupa ¡25.490
KB!! (unos 25 MB, 25 megas!!). La cifra resulta impactante, pero no se preocupe;
existen muchos métodos para reducir el tamaño de las imágenes, tanto a la hora
de manejarlas en memoria como a la de almacenarlas en el disco duro.
El primer método consiste en escanear a menor resolución; la calidad es menor,
pero el tamaño del fichero resultante también. Si la imagen va a tener como
destino la pantalla de un ordenador, 75 ppp serán casi siempre suficientes, lo que
reduciría el tamaño de la imagen anterior a apenas 1.593 KB, poco más de 1,5 MB.
Como segundo método tenemos reducir la profundidad de color. Si la imagen
anterior es un dibujo a tinta china, con escanear a 1 bit (en blanco y negro) puede
que tengamos suficiente. Esto reduciría el tamaño a tan sólo 1.062 KB, casi
exactamente 1 MB.
Por último podemos archivar la imagen en formato comprimido. En este caso
el tamaño de la imagen en memoria permanece invariable (25 MB), pero el tamaño
en disco puede quedar en menos de una quinta parte sin pérdida de calidad, o
incluso menos si la compresión se realiza eliminando información redundante.
Como ejemplo de formatos de archivo de imagen con compresión tenemos los JPEG
(o JPG), GIF o TIFF, frente al clásico BMP que carece de compresión alguna.
Lo más importante es que podemos combinar los factores anteriores para conseguir
resultados realmente optimizados; así, escaneando la imagen del ejemplo a 75 ppp,
con 1 bit de color y guardándola en formato GIF, el resultado puede ocupar tan
sólo 66 KB en memoria y menos de 15 KB en disco.
Para terminar con este tema vamos a poner una tabla resumen en la que se ilustra
la cantidad de memoria RAM que ocupan algunos ejemplos típicos de original a
diferentes resoluciones y colores:
Tipo de original
Destino
Método escaneado
Tamaño en RAM
Fotografía 10x15 cm
Pantalla
75 ppp / 24 bits
0,4 MB
Impresora B/N
300 ppp / 8 bits
2 MB
Impresora color
300 ppp / 24 bits
6 MB
100
LOS PERIFERICOS
Texto o dibujo en Pantalla
blanco
y
negro
tamaño DIN-A4
Foto DIN-A4 en color
75 ppp / 1 bit
66 KB
Impresora
300 ppp / 8 bit
8 MB
OCR
300 ppp / 1 bit
1 MB
Pantalla
75 ppp / 24 bits
1,6 MB
Impresora
300 ppp / 24 bits
25 MB
Cabe destacar que en muchos casos se utilizan escalas de 256 grises (8 bits) para
representar más fielmente originales en blanco y negro con bordes muy definidos o
pequeños tamaños de letra
Formatos de escáner
Físicamente existen varios tipos de escáner, cada uno con sus ventajas y sus
inconvenientes:

De sobremesa o planos: son los modelos más apreciados por su buena
relación precio/prestaciones, aunque también son de los periféricos más
incómodos de ubicar debido a su gran tamaño; un escáner para DIN-A4
plano puede ocupar casi 50x35 cm, más que muchas impresoras, con el
añadido de que casi todo el espacio por encima del mismo debe mantenerse
vacío
para
poder
abrir
la
tapa.
Sin embargo, son los modelos más versátiles, permitiendo escanear
fotografías, hojas sueltas, periódicos, libros encuadernados e incluso
transparencias, diapositivas o negativos con los adaptadores adecuados. Las
resoluciones suelen ser elevadas, 300x600 ppp o más, y el precio bastante
ajustado. El tamaño de escaneado máximo más común es el DIN-A4,
aunque existen modelos para A3 o incluso mayores (aunque ya con precios
prohibitivos).

De mano: son los escáners "portátiles", con todo lo bueno y lo malo que
implica esto. Hasta hace unos pocos años eran los únicos modelos con
precios asequibles para el usuario medio, ya que los de sobremesa eran
extremadamente caros; esta situación a cambiado tanto que en la
actualidad los escáners de mano están casi en vías de extinción. Descansen
en
paz.
Su extinción se debe a las limitaciones que presentan en cuanto a tamaño
del original a escanear (generalmente puede ser tan largo como se quiera,
pero de poco más de 10 cm de ancho máximo) y a su baja velocidad, así
como a la carencia de color en los modelos más económicos. Lo que es más,
101
LOS PERIFERICOS
casi todos ellos carecen de motor para
arrastrar la hoja, sino que es el usuario el
que
debe
pasar
el
escáner
sobre
la
superficie a escanear (abstenerse aquellos
con
mal
engorroso,
escanear
pulso).
pero
Todo
esto
resulta
rápidamente
es
muy
eficaz
fotos
de
para
libros
encuadernados, artículos periodísticos, facturas y toda clase de pequeñas
imágenes sin el estorbo que supone un escáner plano.

De rodillo: unos modelos de aparición relativamente moderna, se basan en
un sistema muy similar al de los aparatos de fax: un rodillo de goma
motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está
situado
el
elemento
capturador
de
imagen.
Este sistema implica que los originales sean hojas sueltas, lo que limita
mucho su uso al no poder escanear libros encuadernados sin realizar antes
una fotocopia (o arrancar las páginas, si se es muy bestia), salvo en
modelos peculiares como el Logitech FreeScan que permite separar el
cabezal de lectura y usarlo como si fuera un escáner de mano. A favor
tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se
integran en la parte superior del teclado; en contra tenemos que su
resolución rara vez supera los 400x800 puntos, aunque esto es más que
suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos.

Modelos especiales: aparte de los híbridos de rodillo y de mano, existen
otros escáners destinados a aplicaciones concretas; por ejemplo, los
destinados a escanear exclusivamente fotos, negativos o diapositivas,
aparatos con resoluciones reales del orden de 3.000x3.000 ppp que muchas
veces se asemejan más a un CD-ROM (con bandeja y todo) que a un
escáner clásico; o bien los bolígrafos-escáner, utensilios con forma y tamaño
de lápiz o marcador fluorescente que escanean el texto por encima del cual
los pasamos y a veces hasta lo traducen a otro idioma al instante; o
impresoras-escáner, similares a fotocopiadoras o más particulares como las
Canon, donde el lector del escáner se instala como un cartucho de tinta.
Conectores: ¿paralelo, SCSI o USB?
Esta es una de las grandes preguntas que debe hacerse todo futuro comprador de
un escáner. La forma de conectar un periférico al ordenador es siempre importante,
102
LOS PERIFERICOS
pues puede afectar al rendimiento del dispositivo, a su facilidad de uso o
instalación... y fundamentalmente a su precio, claro.
Puerto paralelo
Es el método más común de conexión para escáners domésticos, entendiendo
como tales aquellos de resolución intermedia-alta (hasta 600x1.200 ppp, pero más
comúnmente de 300x600 ó 400x800 ppp) en los que la velocidad no tiene
necesidad de ser muy elevada mientras que el precio es un factor muy importante.
El puerto paralelo, a veces denominado LPT1, es el que utilizan la mayor parte de
las impresoras; como generalmente el usuario tiene ya una conectada a su
ordenador, el escáner tendrá dos conectores, uno de entrada y otro de salida, de
forma que quede conectado en medio del ordenador y la impresora. Como primer
problema de este tipo de conexión tenemos el hecho de que arbitrar el uso del
puerto paralelo es algo casi imposible, por lo que en general no podremos imprimir
y escanear a la vez (aunque para un usuario doméstico esto no debería ser
excesivo problema).
De cualquier modo, debemos tener presente el hecho de que para obtener una
velocidad razonable, el puerto debe estar configurado en los modos ECP o EPP
(dependiendo del escáner en concreto), lo cual se selecciona generalmente en la
BIOS. El problema aparece cuando el ordenador que queremos conectar es algo
antiguo y no puede configurar el puerto más que en el antiguo estándar, 10 veces
más lento (como ocurre con los primeros 486 e inferiores), o cuando surgen
conflictos con otros dispositivos que tengamos conectados al puerto paralelo, como
unidades Zip o algunas impresoras modernas.
En estos casos puede merecer la pena comprar una tarjeta controladora nueva que
sustituya al puerto actual o bien que añada un segundo puerto (que será LPT2);
estas tarjetas controladoras de dispositivos, llamadas también de I/O, son baratas
pero en ocasiones difíciles de encontrar por estar en la actualidad integradas en la
placa base.
Conector SCSI
Sin lugar a dudas, es la opción
profesional.
Un
escáner
SCSI
(leído "escasi") es siempre más caro
que su equivalente con conector
paralelo, e incluso muchos resultan
más caros que modelos de mayor
resolución pero que utilizan otro
conector. Debido a este sobreprecio
LOS PERIFERICOS
103
no se fabrican en la actualidad escáners SCSI de resolución menor de 300x600 ppp,
siendo lo más común que las cifras ronden los 600x1.200 ppp o más.
La utilidad de la conexión SCSI radica en dos apartados: velocidad y pocos
requisitos de microprocesador. Lo primero es fácil de entender: la interfaz SCSI
puede transmitir de 5 a 80 MB/s, dependiendo del estándar SCSI en concreto,
mientras que el puerto paralelo a duras penas supera 1 MB/s (y eso en los modos
"avanzados" ECP o EPP). Si como vimos antes una imagen A4 puede ocupar 25 MB
o más, resulta evidente que un escáner SCSI es la opción a utilizar para escanear
imágenes grandes con una cierta resolución y calidad de color.
La otra cualidad de SCSI incide también en la velocidad, aunque de otra forma. No
se trata sólo de que se puedan transmitir 10 ó 20 MB/s, sino que además dicha
transferencia se realiza sin que el microprocesador realice apenas trabajo; esto
permite ir escaneando imágenes mientras realizamos otras tareas, agilizando
mucho el trabajo. En un escáner paralelo resulta muy normal que mientras se
realiza el escaneado el rendimiento del ordenador baje tanto que no merezca la
pena intentar hacer nada hasta que haya finalizado el proceso.
Pero como no todo van a ser ventajas en esta vida, los escáners SCSI (y en general
todos los dispositivos SCSI) tienen una carga: su precio elevado, justificable por
el aumento de prestaciones que suponen y por la necesidad de incluir una tarjeta
controladora SCSI, ya que muy pocos ordenadores traen una incorporada
(mientras que todos tienen puerto paralelo). Para economizar un poco, en muchas
ocasiones dicha tarjeta es un modelo de prestaciones reducidas, capaz de controlar
únicamente el escáner y no los 7 ó 15 dispositivos que pueden manejar las tarjetas
normales.
Puerto USB
Esto es lo último en escáners; tanto, que hace poco más de un año sencillamente
no existía ningún escáner en el mercado con este tipo de conexión. Los puertos
USB están presentes en la mayoría de ordenadores Pentium II, AMD K6-2 o más
modernos, así como en algunos Pentium MMX.
En general podríamos decir que los escáners USB se sitúan en un punto
intermedio de calidad/precio. La velocidad de transmisión ronda los 1,5 MB/s,
algo más que el puerto paralelo pero bastante menos que el SCSI; la facilidad de
instalación es casi insuperable, ya que se basa en el famoso Plug and Play
(enchufar y listo) que casi siempre funciona; todos los ordenadores modernos
tienen el USB incorporado (los Pentium normales ya son antiguos... ¡qué se le va a
hacer!!); y además dejan el puerto paralelo libre para imprimir o conectar otros
dispositivos.
LOS PERIFERICOS
104
Se trata, en fin, de una solución claramente enfocada al usuario doméstico u
oficinista, lo que se nota en su precio, sólo algo por encima del de los escáners de
puerto paralelo. En realidad dicha diferencia de precio no debería existir, ya que
fabricar un escáner de uno u otro tipo cuesta prácticamente lo mismo, pero al ser
una tecnología reciente nos cobran la novedad; es de suponer que dentro de unos
meses cuesten lo mismo que los de puerto paralelo, que probablemente acaben por
desaparecer en unos años.
La interfaz TWAIN
Aunque se trata de un tema que compete estrictamente al software (los
programas), no viene mal comentar brevemente en qué consiste este elemento. Se
trata de una norma que se definió para que cualquier escáner pudiera ser usado
por cualquier programa de una forma estandarizada e incluso con la misma interfaz
para la adquisición de la imagen.
Si bien hace unos años aún existía un número relativamente alto de aparatos que
usaban otros métodos propios, hoy en día se puede decir que todos los escáners
normales utilizan este protocolo, con lo que los fabricantes sólo deben preocuparse
de proporcionar el controlador TWAIN apropiado, generalmente en versiones para
Windows 9x, NT y a veces 3.x. Desgraciadamente, sólo los escáners de marca
relativamente caros traen controladores para otros sistemas operativos como OS/2
o Linux, e incluso en ocasiones ni siquiera para Windows 3.x o NT; la buena noticia
es que la estandarización de TWAIN hace que a veces podamos usar el controlador
de otro escáner de similares características, aunque evidentemente no es un
método deseable...
Dejando aparte las librerías DLL y otros temas técnicos, la parte que el usuario ve
del estándar TWAIN es la interfaz de adquisición de imágenes. Se trata de un
programa en el que de una forma visual podemos controlar todos los parámetros
del escaneado (resolución, número de colores, brillo...), además de poder definir el
tamaño de la zona que queremos procesar.
105
LOS PERIFERICOS
Si la fidelidad del color es un factor de importancia, uno de los parámetros que
probablemente deberemos modificar en esta interfaz es el control de gamma, para
ajustar la gama de colores que capta el escáner con la que presenta nuestro
monitor o imprime la impresora. Le recomiendo que busque en la documentación
del escáner para más información.
El OCR
Se trata de una de las aplicaciones más comunes de los escáners. OCR son las
siglas de Optical Character Recognition, reconocimiento óptico de caracteres, o con
una descripción más sencilla: cómo hacer para enseñar a leer al ordenador.
Si
pensamos
un
poco
en
el
proceso
de
escaneado
que
hemos
descrito
anteriormente, nos daremos cuenta de que al escanear un texto no se escanean
letras, palabras y frases, sino sencillamente los puntos que las forman, una especie
de fotografía del texto. Evidentemente, esto puede ser útil para archivar textos,
pero sería deseable que pudiéramos coger todas esas referencias tan interesantes
LOS PERIFERICOS
106
pero tan pesadas e incorporarlas a nuestro procesador de texto no como una
imagen, sino como texto editable.
Lo que desearíamos en definitiva sería que el ordenador supiera leer como
nosotros. Bueno, pues eso hace el OCR: es un programa que lee esas imágenes
digitales y busca conjuntos de puntos que se asemejen a letras, a caracteres.
Dependiendo de la complejidad de dicho programa entenderá más o menos tipos de
letra, llegando en algunos casos a interpretar la escritura manual, mantener el
formato original (columnas, fotos entre el texto...) o a aplicar reglas gramaticales
para aumentar la exactitud del proceso de reconocimiento.
Para que el programa pueda realizar estas tareas con una cierta fiabilidad, sin
confundir "t" con "1", por ejemplo, la imagen que le proporcionamos debe cumplir
unas ciertas características. Fundamentalmente debe tener una gran resolución,
unos 300 ppp para textos con tipos de letra claros o 600 ppp si se trata de tipos de
letra pequeños u originales de poca calidad como periódicos. Por contra, podemos
ahorrar en el aspecto del color: casi siempre bastará con blanco y negro (1 bit de
color), o a lo sumo una escala de 256 grises (8 bits). Por este motivo algunos
escáners de rodillo (muy apropiados para este tipo de tareas) carecen de soporte
para color.
El equipo necesario
No podemos terminar esta explicación sobre los escáners sin dar unas nociones
acerca del hardware imprescindible para manejarlos (y el recomendable, que como
siempre es superior a éste... y más caro).
Actualmente, gracias a los formatos de archivo con compresión el almacenaje de
las imágenes está totalmente solucionado, sobre todo en esta época de discos
duros de 4 GB y más; el problema irresoluble es la memoria RAM necesaria para
presentar las imágenes en la pantalla y tratarlas o imprimirlas.
Como hemos dicho en varias ocasiones, no es raro que una imagen ocupe en
memoria 25 MB o más; por tanto, en el momento en que superemos la memoria
físicamente instalada en el ordenador (hoy en día unos 64 MB, aunque hasta hace
bien poco eran 16 MB o incluso menos) el ordenador hará uso de la memoria
virtual, que no es sino memoria imitada gracias al disco duro. El problema es que
esta "memoria falsa" es muchos miles de veces más lenta que la RAM, lo que puede
eternizar el proceso, además de poner al límite de su resistencia al muy inestable
Windows 95 (y a su hermano mayor el bastante inestable 98).
Por todo esto, para trabajar con un escáner resulta imprescindible tener al menos
16 MB de RAM, siendo absolutamente necesario llegar hasta los 32 MB si vamos a
trabajar habitualmente con originales en color en formatos que superen los 10x15
LOS PERIFERICOS
107
cm. Y si nuestro objetivo pasa por escanear imágenes A4 o mayores a altas
resoluciones (600x600 ppp o más) y luego tratarlas en el ordenador (por ejemplo
para autoedición, trabajos de imprenta digitales o pasar a formato electrónico
planos de arquitectura o ingeniería), el mínimo absoluto son 64 MB.
Por lo demás, el ordenador no necesita unas prestaciones elevadas; puede bastar
con un microprocesador 486, aunque teniendo en cuenta que el tratamiento digital
de imágenes es un proceso que aprovecha bastante cualquier aumento de potencia
en este sentido. Sea razonable, si se compra un escáner de 12.000 pts no
necesitará un Pentium III, pero si se lo compra de 50.000 pts no lo conecte a un
ordenador que cueste menos que el escáner...
LA IMPRESORA
Como indica su nombre, la impresora es el periférico que el ordenador utiliza para
presentar información impresa en papel. Las primeras impresoras nacieron muchos
años antes que el PC e incluso antes que los monitores, siendo durante años el
método más usual para presentar los resultados de los cálculos en aquellos
primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas
que se usaban hasta entonces.
Aunque en nada se parecen las modernas impresoras a sus antepasadas de
aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las
habrá después de éstos, aunque se basen en tecnologías que aún no han sido
siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos
totalmente el papel por una fría pantalla de ordenador; Gutenberg estaría
orgulloso, supongo.
Generalidades y definiciones
Antes de adentrarnos en este complejo mundo de las impresoras, vamos a exponer
algunos de los conceptos básicos sobre las mismas.
Velocidad
La velocidad de una impresora se suele medir con dos parámetros:

ppm: páginas por minuto que es capaz de imprimir;

cps: caracteres (letras) por segundo que es capaz de imprimir.
LOS PERIFERICOS
108
Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se
reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier
modo, los fabricantes siempre calculan ambos parámetros de forma totalmente
engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7
páginas por minuto no se nos advierte de que son páginas con como mucho un 5%
de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo
de cálculo del ordenador.
Y aún así resulta prácticamente imposible conseguir dicha cifra; en realidad, rara
vez se consiguen más de 3 ppm de texto con una impresora de tinta, si bien con
una láser es más fácil acercarse a las cifras teóricas que indica el fabricante.
Resolución
Probablemente sea el parámetro que mejor define a una impresora. La resolución
es la mejor o peor calidad de imagen que se puede obtener con la impresora,
medida en número de puntos individuales que es capaz de dibujar una impresora.
Se habla generalmente de ppp, puntos por pulgada (cuadrada) que imprime una
impresora. Así, cuando hablamos de una impresora con resolución de "600x300
ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo
(2,54 cm) puede situar 600 puntos individuales, mientras que en vertical llega
hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) suele
significar que la resolución horizontal es igual que la vertical.
De cualquier modo, no todo es "tirar puntos" sobre el papel. Dos impresoras de la
misma resolución teórica pueden dar resultados muy dispares, ya que también
influye el tamaño de esos puntos y la precisión a la hora de colocarlos sobre el
papel. De nada sirve colocar 360.000 puntos en una pulgada cuadrada si están
puestos unos sobre otros emborronando la imagen.
109
LOS PERIFERICOS
El buffer de memoria
Ojo, terminado en "R", no vaya a equivocarse y preguntarle al dependiente por el
"bufet" de la impresora; la risa puede ser de órdago. Es una pequeña cantidad de
memoria que tienen todas las impresoras modernas para almacenar parte de la
información que les va proporcionando el ordenador.
De esta forma el ordenador, sensiblemente más rápido que la impresora, no tiene
que estar esperándola continuamente y puede pasar antes a otras tareas mientras
termina la impresora su trabajo. Evidentemente, cuanto mayor sea el buffer más
rápido y cómodo será el proceso de impresión, por lo que algunas impresoras
llegan a tener hasta 256 Kb de buffer (en impresoras muy profesionales, incluso
varios MB).
El interfaz o conector
Las impresoras se conectan al PC casi exclusivamente mediante el puerto
paralelo, que en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso
del segundo puerto paralelo, si existiera más de uno). Como el puerto paralelo
original no era demasiado rápido, en la actualidad se utilizan puertos más
avanzados como el ECP o el EPP, que son más rápidos y añaden bidireccionalidad
a la comunicación (es decir, que la impresora puede "hablarle" al PC, lo que
antiguamente era imposible) al tiempo que mantienen la compatibilidad con el
antiguo estándar. El método de trabajo del puerto paralelo (estándar, ECP, EPP...)
se suele seleccionar en la BIOS del ordenador. Físicamente, el conector para puerto
paralelo presenta este aspecto
en el extremo del cable que se
conecta al ordenador, con 25 pines en 2 hileras, mientras que en el extremo que se
conecta a la impresora suele tener 36 pines planos y unas abrazaderas
. El cable para conectar ambos dispositivos se suele
denominar cable paralelo Centronics; para bidireccionalidad se debe usar cables
específicos, más avanzados y de mayor calidad.
Otras formas menos comunes de conectar una impresora es mediante el puerto
serie (el que utilizan los módems externos y muchos ratones; resulta bastante
lento), mediante un conector USB (rápido y sencillo, aunque con pocas ventajas
frente al puerto paralelo), mediante un dispositivo de infrarrojos (muy útil en el
caso de portátiles) o directamente conectados a una red (y no a un ordenador
conectado a la misma) en el caso de grandes impresoras para grupos.
LOS PERIFERICOS
110
Impresoras GDI o Win-impresoras
Antes de empezar a describir los tipos de impresoras según la tecnología de
impresión que utilizan, vamos a comentar algo sobre un tipo especial de impresoras
de reciente aparición en el mercado: las impresoras GDI.
GDI son las siglas de Graphical Device Interface, un tipo de tecnología propia de
Windows por la cual se pueden fabricar impresoras que cargan parte del trabajo
que deberían realizar al ordenador al que están conectadas; por ejemplo,
pueden carecer de memoria propia a base de utilizar la RAM del ordenador. Gracias
a este sistema se ahorran diversos componentes electrónicos en la fabricación de la
impresora, lo que repercute en una bajada de su precio.
El apodo de Win-impresoras les viene dado porque el soporte para esta tarea sólo
suele estar implementado para Windows (sobre todo para Windows 95/98),
generalmente mediante un programa denominado Windows Printing System
(literalmente, sistema de impresión de Windows). Puesto que Windows representa
más del 90% del mercado PC, los fabricantes ni se molestan en incorporar soporte
para OS/2, Linux ni otros sistemas operativos.
Las desventajas de estas impresoras son dos: primeramente, dependen de la
potencia del ordenador al que están conectadas, que deberá ser como poco un
Pentium rápido con una cantidad generosa de RAM; y además, sólo funcionan en
Windows; fuera de este sistema operativo no son capaces de escribir ni una línea
(ni siquiera en DOS, como no sea corriendo DOS en una ventana de Windows).
Los que sólo utilicen Windows para trabajar puede que no lo vean como un
problema, pero debemos tener en cuenta que la impresora es uno de los elementos
más caros y de mayor vida útil del PC. Así que ¿quién nos asegura que nuestra
flamante impresora GDI va a funcionar con las versiones de Windows de dentro de
un par de años? ¿Quién nos asegura que dentro de un par de años Windows va a
seguir siendo el rey de los sistemas operativos (aunque sí es lo más probable)? ¿Y
está seguro de que nunca jamás va a necesitar usar la impresora fuera de
Windows?
La verdad es que ahorrarnos unas 10.000 pesetas comprando una de estas
impresoras casi nunca merece la pena ante tales incertidumbres; además, una
impresora GDI será siempre un poco más lenta que el modelo equivalente "clásico"
(salvo que se tenga un ordenador potente), aparte de cargar bastante al sistema
operativo, lo que con el inestable Windows nunca es algo deseable...
De cualquier modo, son cada vez más comunes, por lo que si se decide por una de
estas impresoras procure al menos que no sea un modelo GDI puro, sino una
impresora con una cierta cantidad de memoria y componentes que sólo tome
111
LOS PERIFERICOS
prestadas parte de las capacidades del ordenador (si su memoria propia se le
queda corta, por ejemplo).
Tipos de impresoras
Si queremos clasificar los diversos tipos de impresoras que existen, el método más
lógico es hacerlo atendiendo a su tecnología de impresión, es decir, al método que
emplean para imprimir en el papel, e incluir en dicha clasificación como casos
particulares otras consideraciones como el uso de color, su velocidad, etc. Eso nos
lleva a los tres tipos clásicos: matriciales, de tinta y láser.
Impresoras de impacto (matriciales)
Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto"
porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de
impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos
quebraderos de cabeza si su calidad no es la que sería deseable.
Según cómo sea el cabezal de impresión, se dividen en dos grupos principales: de
margarita y de agujas. Las de margarita incorporan una bola metálica en la que
están en relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un
soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra
correspondiente. El método es absolutamente el mismo que se usa en muchas
máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado.
Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en
completo desuso debido a que sólo son capaces de escribir texto; además, para
cambiar de tipo o tamaño de letra deberíamos cambiar la matriz de impresión (la
bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas,
además de que permiten obtener copias múltiples en papel de autocopia o papel
carbón.
Las
impresoras
veces
de
agujas,
denominadas
matriciales,
tienen
una
muchas
simplemente
matriz
de
pequeñas agujas que impactan en el
papel
formando
la
imagen
deseada;
cuantas más agujas posea el cabezal de
impresión mayor será la resolución, que
suele estar entre 150 y 300 ppp, siendo
casi imposible superar esta última cifra.
Aunque la resolución no sea muy alta es
posible obtener gráficos de cierta calidad, si bien en blanco y negro, no en color.
112
LOS PERIFERICOS
El uso de color implica la utilización de varias cintas
o cintas más anchas, además de ser casi imposible
conseguir una gama realista de colores, más allá de
los más básicos.
Al ser impresoras de impacto pueden obtener
copias múltiples, lo que las hace especialmente
útiles en oficinas o comercios para la realización de listados, facturas, albaranes y
demás documentos. Su velocidad en texto es de las más elevadas, aunque a costa
de producir un ruido ciertamente elevado, que en ocasiones llega a ser molesto.
Resulta muy común encontrarlas con alimentadores para papel continuo, lo que
sólo ocurre con algunas impresoras de tinta de precio elevado.
En general, las impresoras matriciales de agujas se posicionan como impresoras de
precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de
impresión. Entre los pocos fabricantes que quedan de estas impresoras destaca
Epson, con un enorme catálogo con opciones y precios para todos los gustos.
Impresoras de tinta
Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a
impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra
en forma más o menos líquida, no impregnando una cinta como en las matriciales.
La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan
inyectores, mediante la aplicación de una carga eléctrica que hace saltar una
minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas
formas, los entresijos últimos de este proceso varían de una a otra marca de
impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección
por burbuja") y no son realmente significativos a la hora de adquirir una u otra
impresora.
Estas
impresoras
destacan
por
la
sencilla
utilización del color. Antiguamente (y todavía
en algunos modelos de muy baja gama o en
impresoras portátiles), para escribir cualquier
cosa en color se tenía que sustituir el cartucho
de tinta negra por otro con tintas de los colores
básicos
(generalmente
magenta,
cyan
y
amarillo). Este método tenía el inconveniente de
que el texto negro se fabricaba mezclando los
113
LOS PERIFERICOS
tres colores básicos, lo que era más lento, más caro en tinta y dejaba un negro con
un cierto matiz verdoso. En la actualidad, la práctica totalidad de estas impresoras
incorporan soporte para el uso simultáneo de los cartuchos de negro y de color.
La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440
ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta
bastante deficiente, por lo que no es raro encontrar que el resultado de una
impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de
resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que
los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima
resolución o una gama de colores más viva y realista.
El principal destinatario de este tipo de impresoras es el usuario doméstico, además
del oficinista que no necesita trabajar con papel continuo ni con copias múltiples
pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con
una
calidad
aceptable.
Fabricantes
existen
decenas,
desde
los
clásicos
contendientes Epson y Hewlett-Packard (hp) hasta otros de mucho menor volumen
de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark,
Oki...
Una nota sobre los cartuchos de tinta: son relativamente caros, debido a que
generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de
impresión; este sistema asegura que el cabezal siempre está en buen estado, pero
encarece el precio. Existen decenas de sistemas de recarga de cartuchos para
rellenar el cartucho aprovechando el cabezal, pero en el 99% de los casos son un
engorro y se pone todo perdido de tinta; no se los recomiendo para nada por
experiencia propia, pero allá usted...
Impresoras láser
Son las de mayor calidad del mercado, si entendemos por calidad la resolución
sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la
impresión
se
consigue
electrostáticamente
llamado
tambor
en
que
va
mediante
un
un
láser
elemento
girando
hasta
impregnarse de un polvo muy fino llamado
tóner (como el de fotocopiadoras) que se le
adhiere debido a la carga eléctrica. Por
último,
el
tambor
sigue
girando
y
se
encuentra con la hoja, en la cual imprime el
tóner que formará la imagen definitiva.
Las
peculiares
características
de
estas
que
va
dibujando
la
imagen
114
LOS PERIFERICOS
impresoras obligan a que dispongan de su propia memoria para almacenar una
copia electrónica de la imagen que deben imprimir. A mayor tamaño y calidad de
impresión necesitaremos mayor cantidad de memoria, que estará entorno a 1 ó 2
MB; si el documento a imprimir fuera muy largo y complejo, por ejemplo con varias
fotografías o a una resolución muy alta, puede producirse un error por overflow
(falta de memoria), lo que puede evitarse mediante la tecnología GDI comentada
anteriormente (es decir, utilizando memoria del propio PC) o preferiblemente
instalando más memoria a la impresora.
El único problema de importancia de las impresoras láser es que sólo imprimen
en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos
resultados bastante buenos, pero su precio es absolutamente desorbitado,
alrededor de medio millón de pesetas.
Las láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las
impresoras matriciales o de tinta, y aunque la inversión inicial en una láser es
mayor que en una de las otras, el tóner sale más barato a la larga que los
cartuchos de tinta, por lo que a la larga se recupera la inversión. Por todo ello, las
láser son idóneas para entornos de oficina con una intensa actividad de impresión,
donde son más importantes la velocidad, la calidad y el escaso coste de
mantenimiento que el color o la inversión inicial.
Otros tipos de impresoras
Vamos a tratar ahora de otras impresoras de uso mucho menos común, pero que
cubren ciertas necesidades concretas del mercado, como pueden ser los grandes
formatos o la calidad fotográfica.
Plotters
Se
trata
de
unos
aparatos
destinados a la impresión de planos
para proyectos de arquitectura o
ingeniería, por lo que trabajan con
enormes
formatos,
DIN-A1
(59,4x84 cm) o superiores.
Antiguamente
serie
de
consistían
plumillas
en
móviles
una
de
diferentes grosores y colores que se
movían por la hoja reproduciendo el
plano
en
bastante
cuestión,
incómodo
lo
que
por
era
el
mantenimiento de las plumillas y
LOS PERIFERICOS
115
podía ser impreciso al dibujar elementos tales como grandes círculos. En la
actualidad casi todos tienen mecanismos de inyección de tinta, facilitando mucho el
mantenimiento, que se reduce a cambiar los cartuchos; son auténticas impresoras
de tinta, sólo que el papel es mucho más ancho y suele venir en rollos de decenas
de metros.
Impresoras para fotos
Constituyen una categoría de reciente aparición; usan métodos avanzados como la
sublimación o las ceras o tintas sólidas, que garantizan una pureza de color
excepcional, si bien con un coste relativamente elevado en cuanto a consumibles y
una velocidad baja.
La calidad de estas impresoras suele ser tal, que muchas veces el resultado es
indistinguible de una copia fotográfica tradicional, incluso usando resoluciones
relativamente bajas como 200 ppp. Sin embargo, son más bien caras y los
formatos de impresión no suelen exceder el clásico 10x15 cm, ya que cuando lo
hacen los precios suben vertiginosamente y nos encontramos ante impresoras más
apropiadas para pruebas de imprenta y autoedición.
Impresoras de gran formato
Resulta un calificativo tan bueno como cualquier otro para definir a las impresoras,
casi exclusivamente de tinta, que imprimen en formatos hasta el A2 (42x59,4 cm).
Son impresoras que aúnan las ventajas de las impresoras de tinta en cuanto a
velocidad, color y resolución aceptables junto a un precio bastante ajustado, menos
de 150.000 pts, lo que es una pequeña fracción del precio de un plotter.
Se utilizan para realizar carteles o pósters, pequeños planos o pruebas de planos
grandes, así como cualquier tarea para la que sea apropiada una impresora de tinta
de menor formato: cartas, informes, gráficos... Hasta hace poco sólo existían un
par de modelos, ahora las hay de Epson, Canon, HP...
Impresoras para grupos
Son impresoras de gran capacidad, preparadas para funcionar en una red incluso
sin depender de un ordenador de la misma. Suelen ser impresoras láser, en
ocasiones con soporte para color, con bandejas para 500 hojas o más, velocidades
de más de 12 ppm (reales!!) y memoria por encima de 6 MB. Últimamente se
tiende a que tengan funciones de fotocopiadora o capacidad para realizar pequeñas
tiradas sin necesidad de emplear una fotocopiadora, e incluso clasifican y
encuadernan.
116
LOS PERIFERICOS
Adecuación al uso
Realmente está ya todo dicho en los apartados anteriores; sin embargo, vamos a
resumirlo aquí para aclarar un poco las cosas:
Uso
Impresora a utilizar
Textos, copias múltiples,
listados, facturas
Baratas, bajo mantenimiento, poca
Matricial
resolución
Baratas, consumibles algo caros,
De tinta
Textos
y
gráficos
Características
resolución aceptable
en
Muy
blanco y negro y color
Láser color
caras,
muy
rápidas,
alta
resolución; para grandes cargas de
trabajo
Textos
y
gráficos
en Láser blanco y negro
blanco y negro
inversión
inicial,
menor
mantenimiento, alta resolución
De tinta gran formato
Formatos
Mayor
para planos (A3, A2)
grandes,
posters, carteles, planos
Caros,
Plotter
Fotografías
Grandes cargas de trabajo
Baratas, formatos algo reducidos
para
planos,
formatos A1 o A0
Sublimación,
ceras
sólidas o similar
Láser
específicos
color
o
Caras
en
consumibles,
formato
reducido, algo lentas, gran calidad,
muy caras en formatos grandes
láser Caras, bajo mantenimiento, alta
blanco y negro de alta velocidad y resolución
gama
EL MONITOR
Evidentemente, es la pantalla en la que se ve la información suministrada por el
ordenador. En el caso más habitual se trata de un aparato basado en un tubo de
rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es
una pantalla plana de cristal líquido (LCD).
117
LOS PERIFERICOS
Si alguna vez se ha enfrentado al manual de su monitor (para lo que demasiadas
veces hace falta saber inglés, alemán o japonés, ya que rara vez vienen en otro
idioma), habrá encontrado un galimatías impresionante sobre Hz, MHz, refresh y
demás zarandajas. Usted intuye que eso tiene que ver con la calidad del aparato,
pero ¿qué demonios significa? Vamos a intentar explicarlo.
Resolución (resolution)
Se trata del número de puntos que puede representar el monitor por pantalla, en
horizontal x vertical. Así, un monitor cuya resolución máxima sea de 1024x768
puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una,
probablemente además de otras resoluciones inferiores, como 640x480 u 800x600.
Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen
en pantalla, y mayor será la calidad (y por consiguiente el precio) del monitor. La
resolución debe ser apropiada además al tamaño del monitor; es normal que un
monitor de 14" ó 15" no ofrezca 1280x1024 puntos, mientras que es el mínimo
exigible a uno de 17" o superior. La siguiente tabla ilustra este tema:
Tamaño
Resolución máxima exigible Resolución
monitor
(no entrelazada)
recomendada
14"
1024x768 (monitores nuevos)
640x480
15"
1024x768
800x600
17"
1280x1024
1024x768
19"
1600x1200
1152x864
21"
1600x1200
1280x1024
Los
valores
recomendados
para
trabajar
son
los
más
de
trabajo
cómodos,
los
más
ergonómicos, que son los apropiados para tareas generales como las ofimáticas.
Para otras más específicas como CAD, o en general cuando no nos importa forzar
un poco más la vista, conviene pasar al inmediatamente superior; por ejemplo, en
monitores de 19" se puede usar una resolución de 1600x1200 sin mayores
problemas.
La
resolución
está
estrechamente
relacionada
con
el
número
de
colores
presentados, relacionado todo ello con la cantidad de memoria de la tarjeta gráfica.
Para entender estas relaciones, pulse aquí para ir al apartado correspondiente de
tarjetas gráficas.
LOS PERIFERICOS
118
Refresco de pantalla
También llamada Frecuencia de Refresco Vertical. Se puede comparar al
número de fotogramas por segundo de una película de cine, por lo que deberá ser
lo mayor posible. Se mide en Hz (hertzios) y debe estar por encima de 60 Hz,
preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es
sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho
menos.
Antiguamente los monitores sólo podían presentar imágenes con unos refrescos
determinados y fijos, por ejemplo los monitores CGA o EGA y algunos VGA; hoy en
día todos los monitores son multiscan, es decir, que pueden presentar varios
refrescos dentro de un rango determinado.
Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe
presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor
no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a
fondo, para lo cual lo mejor es leer con detenimiento el manual o mirar otro
parámetro denominado Frecuencia Horizontal, que debe ser lo mayor posible,
entre unos 30 a 80 KHz. Por ejemplo, un monitor en que la frecuencia horizontal
sea de 30 a 65 KHz dará sólo 60 Hz a 1600x1200 puntos, mientras que uno en que
sea de 30 a 90 dará 75 o más.
Tamaño de punto (dot pitch)
Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos
puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones
es diferente en vertical que en horizontal, o se trata de un valor medio,
dependiendo de la disposición particular de los puntos de color en la pantalla, así
como del tipo de rejilla empleada para dirigir los haces de electrones.
Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose
admitir nada superior como no sea en monitores de gran formato para
presentaciones, donde la resolución no es tan importante como el tamaño de la
imagen.
Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm,
idealmente de 0,25 mm (o menos). De todas formas, el mero hecho de ser
inferior a 0,28 mm ya indica una gran preocupación del fabricante por la calidad del
monitor. Como ejemplo cabe destacar los monitores Sony, los afamados Triniton,
que pasan por ser lo mejor del mercado (y probablemente lo sean, con perdón de
Nokia y Eizo) y tienen todos un dot pitch máximo de 0,25 mm.
LOS PERIFERICOS
119
Controles y conexiones
Aunque se va cada vez más al uso de monitores con controles digitales, en principio
no debe ser algo determinante a la hora de elegir un monitor, si bien se tiende a
que los monitores con dichos controles sean los más avanzados de la gama.
Una característica casi común a los monitores con controles digitales son los
controles OSD (On Screen Control, controles en pantalla). Son esos mensajes que
nos indican qué parámetro estamos cambiando y qué valor le estamos dando. Son
útiles, pero en absoluto imprescindibles (ni depende la calidad del monitor de incluir
dicho sistema o no).
Lo que sí suelen tener algunos monitores digitales (no todos) son memorias de los
parámetros de imagen (tamaño, posición...), por lo que al cambiar de resolución no
tenemos que reajustar dichos valores, lo cual puede ser bastante engorroso.
En cuanto a los controles en sí, los imprescindibles son: tamaño de la imagen
(vertical y horizontal), posición de la imagen, tono y brillo. Son de agradecer los de
"efecto barril" (para mantener rectos los bordes de la imagen), control trapezoidal
(para mantenerla rectangular) y degauss magnético o desmagnetización.
Por lo que respecta a las conexiones, lo inexcusable es el típico conector mini D-sub
de 15 pines; en monitores de 17" o más es interesante que existan además
conectores BNC, que presentan la ventaja de separar los tres colores básicos. De
cualquier modo, esto sólo importa si la tarjeta gráfica también los incorpora y si la
precisión en la representación del color resulta determinante en el uso del monitor.
Hoy en día algunos monitores pueden incorporar una bahía USB, para la conexión
de este tipo de periféricos. Resulta algo llamativo, pero para eso ya está la placa
base; nunca lo tome como una auténtica ventaja.
Multimedia
Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de
vídeo. Esto resulta interesante cuando se trata de un monitor de 15" ó 17" cuyo
uso vaya a ser doméstico, para juegos o videoconferencia.
Sin embargo, no nos engañemos: un monitor es para ver, no para oír. Ni la calidad
de sonido de dichos altavoces es la mejor posible, ni su disposición la más
adecuada, ni es mayor la calidad de un monitor con dichos aditamentos. Si lo que
quiere (y debería quererlo) es un buen monitor, primero mire la calidad de imagen
y luego estos extras; tenga en cuenta que unos altavoces de calidad media y
potencia apabullante no valen más de 10.000 pts, y podrá colocarlos donde quiera.
120
LOS PERIFERICOS
La elección del monitor
En líneas generales podríamos decir que existen 4 tipos principales de monitores,
teniendo en cuenta que en la actualidad los de 14" no son en absoluto
recomendables para ningún uso:
Grupo
Tamaño
Res. recomendada
Res. máxima
Dot pitch
Económicos
15"
800x600 a 75 Hz
1024x768 a 60 Hz
0,28
(juegos, 15"
800x600 a 80 Hz
1280x1024 a 60 Hz
0,28 a 0,25
17"
1024x768 a 75 Hz
1280x1024 a 60 Hz
0,28
(uso 17"
1152x864 a 75 Hz
1600x1200 a 60 Hz
0,27 a 0,22
1280x1024 a 85 Hz
1600x1200 a 70 Hz
0,27 a 0,22
(ofimática, juegos)
Medios
uso general)
Avanzados
general, CAD)
Excepcionales
19"/21"
(CAD, imágenes)
Evidentemente, aparte del uso al que va a ser destinado el monitor, el auténtico
factor limitante es el propio bolsillo. No hay duda que para jugar a Quake el mejor
monitor pertenecería al último grupo, si pudiéramos dejar aparte las 200.000 pts
que costaría el capricho...
Pantallas portátiles
Se basan en tecnologías de cristal líquido (LCD), parecidas a las de los relojes de
pulsera digitales pero mucho más avanzadas.
Una de las diferencias más curiosas respecto a los monitores "clásicos" es que el
tamaño que se indica es el real, no como en éstos. Mientras que en un monitor
clásico de 15" de diagonal de tubo sólo un máximo de 13,5" a 14" son utilizables,
en una pantalla portátil de 13,3" son totalmente útiles, así que no son tan
pequeñas como parece.
Otra
cosa
que
les
diferencia
es
que
no
emiten
en
absoluto
radiaciones
electromagnéticas dañinas, por lo que la fatiga visual y los posibles problemas
oculares se reducen.
En la actualidad coexisten dos tipos:

Dual Scan (DSTN): ya no muy utilizadas, razonablemente buenas pero
dependen de las condiciones de iluminación del lugar donde se esté usando
el portátil.
LOS PERIFERICOS

121
HPA: una variante moderna de las anteriores, de contraste ligeramente
superior, pero ojo: sólo ligeramente superior, sin duda peor que las TFT.

Matriz Activa (TFT): esta opción encarece el portátil, pero permite una
visualización perfecta sean cuales sean las condiciones de iluminación
exteriores.
Por lo demás, en todos los casos las imágenes se ven mejor de frente que de lado,
llegando a desaparecer si nos escoramos mucho, aunque en los portátiles
modernos este ángulo de visión es muy alto, hasta unos 160º (el máximo es 180º,
más significaría poder ver la pantalla desde la parte de atrás).
DISPOSITIVOS DE ALMACENAMIENTO
Los primeros PCs carecían de disco duro, sólo disponían de una o dos disqueteras
gracias a las cuales se cargaban los programas y se guardaba la información;
incluso era posible llegar a tener almacenados en un único disquete ¡de 360 Kb! el
sistema operativo, el procesador de textos y los documentos más utilizados.
Evidentemente, los tiempos han cambiado; hoy en día, quien más quien menos
dispone de discos duros de capacidad equivalente a miles de aquellos disquetes, y
aun así seguimos quejándonos de falta de espacio. En fin...
Generalidades
Antes de entrar a discutir los tipos de disquetes, discos duros, dispositivos de
almacenamiento masivo portátiles y demás, vamos a explicar algunos conceptos
que aparecerán en la explicación de todos estos aparatos.
El tamaño: Kb, MB y GB
Como decían en la publicidad de Godzilla, "el tamaño importa". Aparte de la
durabilidad, la portabilidad, la fiabilidad y otros temas más o menos esotéricos,
cuando buscamos un dispositivo de almacenamiento lo que más nos importa
generalmente es su capacidad.
En informática, cada carácter (cada letra, número o signo de puntuación) suele
ocupar lo que se denomina un byte (que a su vez está compuesto de bits,
generalmente 8). Así, cuando decimos que un archivo de texto ocupa 4.000 bytes
queremos decir que contiene el equivalente a 4.000 letras (entre 2 y 3 páginas de
texto sin formato).
Por supuesto, el byte es una unidad de información muy pequeña, por lo que se
usan sus múltiplos: kilobyte (Kb), megabyte (MB), gigabyte (GB)... Debido a que
la informática suele usar potencias de 2 en vez de potencias de 10, se da la curiosa
circunstancia de que cada uno de estos múltiplos no es 1.000 veces mayor que el
anterior, sino 1.024 veces (2 elevado a 10 = 1.024). Por tanto, tenemos que:
1 GB = 1.024 MB = 1.048.576 Kb = más de 1.073 millones de bytes
¡La tira de letras, sin duda! Se debe tener en cuenta que muchas veces en vez del
1.024 se usa el 1.000, por ejemplo para hacer que un disco duro parezca un poco
mayor de lo que es en realidad, digamos de 540 MB en vez de 528 MB (tomando 1
MB como 1.000 Kb, en vez de 1.024 Kb).
Claro está que no todo son letras; por ejemplo, un archivo gráfico de 800x600
puntos en "color real" (hasta 16,7 millones de colores) ocupa 1,37 MB (motivo por
el cual se usan métodos de compresión como JPEG, GIF, PCX, TIFF); un sistema
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
124
operativo como Windows 95 puede ocupar instalado más de 100 MB; 74 minutos de
sonido con calidad digital ocupan 650 MB; etcétera, etcétera.
La velocidad: MB/s y ms
La velocidad de un dispositivo de almacenamiento no es un parámetro único; más
bien es como un coche, con su velocidad punta, velocidad media, aceleración de 1 a
100 y hasta tiempo de frenado.
La velocidad que suele aparecer en los anuncios es la velocidad punta o a
ráfagas, que suele ser la mayor de todas. Por ejemplo, cuando se dice que un
disco duro llega a 10 MB/s, se está diciendo que teóricamente, en las mejores
condiciones y durante un brevísimo momento es capaz de transmitir 10 megabytes
por segundo. Y aun así, puede que nunca consigamos llegar a esa cifra.
La velocidad que debe interesarnos es la velocidad media o sostenida; es decir,
aquella que puede mantener de forma más o menos constante durante lapsos
apreciables de tiempo. Por ejemplo, para un disco duro puede ser muy aceptable
una cifra de 5 MB/s, muy lejos de los teóricos 16,6 MB/s del modo PIO-4 o los 33,3
MB/s del UltraDMA que tanto gustan de comentar los fabricantes, claro.
Y por último tenemos el tiempo medio de acceso. Se trata del tiempo que por
término medio tarda el dispositivo en responder a una petición de información
debido a que debe empezar a mover sus piezas, a girar desde el reposo si es que
gira y a buscar el dato solicitado. En este caso se mide en milisegundos (ms), y
puesto que se trata de un tiempo de espera, tiempo perdido, cuanto menos sea
mejor. Por ejemplo, un disco duro tiene tiempos menores de 25 ms, mientras que
un CD-ROM puede superar los 150 ms. También se habla a veces del tiempo
máximo de acceso, que suele ser como el doble del tiempo medio.
Tecnologías: óptica y magnética
Para grabar datos en un soporte físico más o menos perdurable se usan casi en
exclusiva estas dos tecnologías. La magnética se basa en la histéresis magnética de
algunos materiales y otros fenómenos magnéticos, mientras que la óptica utiliza las
propiedades del láser y su alta precisión para leer o escribir los datos.
No vamos a explicar aquí las teorías físicas en que se basa cada una de estas
tecnologías, yo lo he hecho y no creo que fuera nada divertido ni útil para la
mayoría; vamos más bien a explicar las características peculiares prácticas de cada
una de ellas.
La tecnología magnética para almacenamiento de datos se lleva usando desde
hace decenas de años, tanto en el campo digital como en el analógico. Consiste en
la aplicación de campos magnéticos a ciertos materiales cuyas partículas reaccionan
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
125
a esa influencia, generalmente orientándose en unas determinadas posiciones que
conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan
los datos, bien sean una canción de los Beatles o bien los bits que forman una
imagen o el último balance de la empresa.
Dispositivos magnéticos existen infinidad; desde las casetes o las antiguas cintas de
música hasta los modernos Zip y Jaz, pasando por disqueteras, discos duros y otros
similares. Todos se parecen en ser dispositivos grabadores a la vez que lectores, en
su precio relativamente bajo por MB (lo que se deriva de ser tecnologías muy
experimentadas) y en que son bastante delicados.
Les afectan las altas y bajas temperaturas, la humedad, los golpes y sobre todo los
campos magnéticos; si quiere borrar con seguridad unos cuantos disquetes,
póngalos encima de un altavoz conectado en el interior de un coche al sol y déjelos
caer a un charco un par de veces. Y si sobreviven, compre acciones de la empresa
que los ha fabricado.
La tecnología óptica de almacenamiento por láser
es bastante más reciente. Su primera aplicación
comercial masiva fue el superexitoso CD de música,
que data de comienzos de la década de 1.980. Los
fundamentos
técnicos
que
se
utilizan
son
relativamente sencillos de entender: un haz láser va
leyendo (o escribiendo) microscópicos agujeros en la
superficie
de
un
disco
de
material
plástico,
recubiertos a su vez por una capa transparente para
su protección del polvo.
Realmente, el método es muy similar al usado en los
antiguos
discos
de
vinilo,
excepto
porque
la
información está guardada en formato digital (unos y
ceros como valles y cumbres en la superficie del CD)
en vez de analógico y por usar un láser como lector.
El
sistema
no
ha
experimentado
variaciones
importantes hasta la aparición del DVD, que tan sólo
ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros y
apretado los surcos para que quepa más información en el mismo espacio; vamos,
el mismo método que usamos todos para poder meter toda la ropa en una única
maleta cuando nos vamos de viaje...
La principal característica de los dispositivos ópticos es su fiabilidad. No les
afectan los campos magnéticos, apenas les afectan la humedad ni el calor y pueden
aguantar golpes importantes (siempre que su superficie esté protegida). Sus
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
126
problemas radican en la relativa dificultad que supone crear dispositivos grabadores
a un precio razonable, una velocidad no tan elevada como la de algunos
dispositivos magnéticos y en que precisan un cierto cuidado frente al polvo y en
general cualquier imperfección en su superficie, por lo que es muy recomendable
que dispongan de funda protectora. De todas formas, un CD es mucho más
probable que sobreviva a un lavado que un disquete, pero mejor no tener que
probarlo.
El interfaz SCSI
Acrónimo de Small Computer Systems Interface y leído "escasi", aunque parezca
mentira. Mucha gente ha oído hablar de estas siglas y en general las asocian a
ordenadores caros o de marca y a un rendimiento elevado, pero no muchos
conocen el porqué de la ventaja de esta tecnología frente a otras como EIDE.
La tecnología SCSI (o tecnologías, puesto que existen multitud de variantes de la
misma) ofrece, en efecto, una tasa de transferencia de datos muy alta entre el
ordenador y el dispositivo SCSI (un disco duro, por ejemplo). Pero aunque esto sea
una cualidad muy apreciable, no es lo más importante; la principal virtud de SCSI
es que dicha velocidad se mantiene casi constante en todo momento sin que el
microprocesador realice apenas trabajo.
Esto es de importancia capital en procesos largos y complejos en los que no
podemos tener el ordenador bloqueado mientras archiva los datos, como por
ejemplo en la edición de vídeo, la realización de copias de CD o en general en
cualquier operación de almacenamiento de datos a gran velocidad, tareas
"profesionales" propias de ordenadores de cierta potencia y calidad como los
servidores de red.
Las distintas variantes de la norma son:
Tipo de norma SCSI
Transferencia
máxima Transferencia
máxima
con 8 bits
con 16 bits (modos Wide)
SCSI-1
5 MB/s
No aplicable
SCSI-2 o Fast SCSI
10 MB/s
20 MB/s
Ultra SCSI o Fast-20
20 MB/s
40 MB/s
Ultra-2 SCSI o Fast-40
40 MB/s
80 MB/s
Los tipos de SCSI de 8 bits admiten hasta 7 dispositivos y suelen usar cables de 50
pines, mientras que los SCSI de 16 bits o Wide, "ancho" en inglés, pueden tener
hasta 15 dispositivos y usan cables de 68 pines. La denominación "SCSI-3" se
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
127
usa de forma ambigua, generalmente refiriéndose al tipo Ultra SCSI de 8 bits,
aunque a veces también se utiliza para los Ultra SCSI de 16 bits (o "UltraWide
SCSI") y Ultra-2.
Las controladoras SCSI modernas suelen ser compatibles con las normas antiguas,
por ejemplo ofreciendo conectores de 50 pines junto a los más modernos de 68, así
como conectores externos (generalmente muy compactos, de 36 pines), salvo en
algunos modelos especiales que se incluyen con aparatos SCSI que están diseñados
sólo para controlar ese aparato en concreto, lo que abarata su coste.
Los dispositivos SCSI deben ir identificados con un número único en la cadena,
que se selecciona mediante una serie de jumpers o bien una rueda giratoria en el
dispositivo. Actualmente algunos dispositivos realizan esta tarea automáticamente
si la controladora soporta esta característica, lo que nos acerca algo más al tan
deseado y huidizo Plug and Play, "enchufar y listo".
Debe tenerse en cuenta que las ventajas de SCSI no se ofrecen gratis, por
supuesto; los dispositivos SCSI son más caros que los equivalentes con interfaz
EIDE o paralelo y además necesitaremos una tarjeta controladora SCSI para
manejarlos, ya que sólo las placas base más avanzadas y de marca incluyen una
controladora SCSI integrada. Si está pensando en comprar un ordenador o una
placa base nuevos, piense si no le merecería la pena adquirir una placa base que la
incorpore por lo que pueda necesitar en el futuro...
Los sistemas de archivo
Todo dispositivo para el almacenamiento de datos debe ser formateado antes de su
uso; es decir, que se le debe dar un cierto formato lógico que indique cómo será
almacenada la información: el tamaño de los paquetes, la forma en que se
distribuyen, los atributos posibles de los archivos (nombre, tipo, fecha...) y otras
características que definirán un tipo de sistema de archivo concreto.
En el mundo PC el sistema de archivo más extendido es el FAT16 de las versiones
de DOS superiores a la 3 y del Windows 95 original, usado en los disquetes y la
mayoría de los discos duros. La VFAT (FAT Virtual) de Windows 95 que permite
nombres largos no es más que un parche sobre este sistema de archivo, no un
sistema de archivo en sí.
El otro sistema en rápida extensión es el FAT32 de Windows 98, ME y de la versión
OSR-2 de Windows 95 (la "4.00.950B", como se identifica a sí misma en el icono de
Sistema del Panel de control). Las ventajas de este sistema de archivo frente al
anterior radican en que es de 32 bits y tiene un tamaño de cluster muy pequeño, lo
que le hace capaz de admitir grandes discos duros y aprovecharlos muy bien,
además de no necesitar artificios como VFAT para usar nombres largos de archivo.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
128
Vayamos por partes; primero, los clusters; son como "cajones" en que el disco duro
está dividido, en los cuales se guardan los archivos. Se da la peculiaridad de que
un cluster no puede ser compartido por dos archivos distintos, por lo que si
tenemos un tamaño de cluster de 16 Kb y queremos guardar un archivo que ocupa
17 Kb, se repartirá en dos clusters, ocupando uno entero y sólo 1 Kb del otro; el
resto (15 Kb) se desperdiciará. Sí, ha leído bien; ¡tiraremos el 47% del espacio!!. Y
esto no es nada, ya verá.
Lo mismo ocurre si queremos almacenar un archivo que ocupa sólo 1 byte; si el
cluster es de 16 Kb (16.384 bytes), se desperdiciarán totalmente 16.383 bytes, ¡el
99,99% del espacio!! Como comprenderá, en estas condiciones resulta muy
importante mantener el tamaño del cluster lo menor posible para minimizar las
pérdidas que ocasionan estos archivos, especialmente los muy pequeños. Observe
la tabla a continuación que relaciona el tamaño de las particiones (a continuación
explicaremos qué son) con el tamaño del cluster en FAT16 y en FAT32:
Tamaño de la partición
Tamaño del cluster
FAT16
Hasta 2 GB
32 Kb
Menos de 1 GB
16 Kb
Menos de 512 MB
8 Kb
Menos de 256 MB
4 Kb
Menos de 128 MB
2 Kb
FAT32
A partir de 8 GB
8 Kb
Menos de 8 GB
4 Kb
En cuanto al tamaño de los discos, no es difícil de entender; si el sistema de
archivo da direcciones de archivo de 16 bits, esto nos da 2 elevado a 16 = 65.536
direcciones, que a un máximo de 32 Kb por cluster son 2.097.152 Kb, es decir, 2
GB como máximo para FAT16. ¿Quiere esto decir que no podemos usar discos
de más de 2 GB? No, afortunadamente; pero implica que deberemos dividirlos en
varias particiones, que son cada una de las divisiones lógicas (que no físicas) de
un disco, las cuales se manejan como si fueran discos duros separados (con su
propia letra de unidad e incluso con diferentes tipos de sistema de archivo si lo
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
129
deseamos). Por ejemplo, un disco de 3,5 GB debe dividirse al menos en dos
particiones de 2 GB o menos cada una para usarlo con FAT16.
Para FAT32 el cálculo es similar, aunque no se usan los 32 bits, sino "sólo" 28, lo
que da un máximo de ¡¡2.048 GB por partición!! (2 Terabytes) usando clusters
de 8 Kb. Sin duda no necesitaremos hacer más de una partición al disco...
Observe que para mantener el mismo tamaño de cluster de 4 Kb en un disco de 2
GB, en FAT16 necesitaríamos al menos 8 particiones de como mucho 255,9 MB,
mientras que en FAT32 nos bastaría con una. Indudablemente, aunque no podamos
instalar FAT32 resulta preferible perder algo de espacio a tener que manejar un
disco subdividido en unidades "C", "D", "E", "F"... y así hasta "J".
Para terminar, tres consideraciones: primero, la ganancia de espacio al pasar
de FAT16 a FAT32 es enorme, varios cientos de MB en un disco de un par de GB,
y en mi opinión ésta es la mejor (y casi única) ventaja de Windows 98 frente a
Windows 95 (no frente a la versión OSR-2, que ya tiene soporte para FAT32).
Segundo, ambos sistemas son incompatibles a nivel de utilidades de disco.
Léase las Norton, las utilidades de defragmentación (por cierto, defragmentar es
organizar un poco todos esos trozos de archivo que andan dispersos en decenas de
clusters separados en el disco duro), los compresores de disco y demás. Si instala
FAT32, deshágase de su software antiguo para estos menesteres o el follón puede
ser enorme.
Y tercero, no son los únicos sistemas de archivo, ni mucho menos los
mejores. En el caso de la FAT16 supongo que ya se lo esperaba, pero es que la
FAT32 tampoco es una maravilla; por ejemplo, carece de características de
seguridad implícitas en el sistema de archivo (como acceso restringido a
determinados usuarios) o bien auto-compresión de los archivos, características que
sí tienen sistemas más avanzados como los de Unix y Linux, el de 32 bits de OS/2
(HPFS) y el de 32 bits del mismísimo Windows NT (NTFS). ¿Por qué Microsoft
inventó el FAT32 teniendo ya el muy eficiente NTFS? Misterios de la vida, amigos.
Unidades de disquete
Por malo y anticuado que sea un ordenador, siempre
dispone
de
capacidad
al
es
menos
uno
totalmente
de
estos
aparatos.
insuficiente
para
Su
las
necesidades actuales, pero cuentan con la ventaja que
les dan los muchos años que llevan como estándar
absoluto para almacenamiento portátil.
¿Estándar? Bien, quizá no tanto. Desde aquel lejano
1.981, el mundo del PC ha conocido casi diez tipos
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
130
distintos de disquetes y de lectores para los mismos. Originariamente los disquetes
eran flexibles y bastante grandes, unas 5,25 pulgadas de ancho. La capacidad
primera de 160 Kb se reveló enseguida como insuficiente, por lo que empezó a
crecer y no paró hasta los 1,44 MB, ya con los disquetes actuales, más pequeños
(3,5"), más rígidos y protegidos por una pestaña metálica.
Incluso existe un modelo de 2,88 MB y 3,5" que incorporaban algunos ordenadores
IBM, pero no llegó a cuajar porque los discos resultaban algo caros y seguían
siendo demasiado escasos para aplicaciones un tanto serias; mucha gente opina
que hasta los 100 MB de un Zip son insuficientes. De cualquier forma, los tipos más
comunes de disquetes aparecen en la siguiente tabla:
Tamaño Tipo
de Capacidad Explicación
disco
5,25"
SS/DD
180 Kb
Una cara, doble densidad. Desfasado
5,25"
DS/DD
360 Kb
Dos caras, doble densidad. Desfasado
5,25"
DS/HD
1,2 MB
Dos caras, alta densidad. Desfasado pero útil
3,5"
DS/DD
720 Kb
Dos caras, doble densidad. Desfasado pero muy
común
3,5"
DS/HD
1,44 MB
Dos caras, alta densidad. El estándar actual
Las disqueteras son compatibles "hacia atrás"; es decir, que en una disquetera de
3,5" de alta densidad (de 1,44 MB) podemos usar discos de 720 Kb o de 1,44 MB,
pero en una de doble densidad, más antigua, sólo podemos usarlos de 720 Kb.
Por cierto, para distinguir a primera vista
un disco de 3,5" de alta densidad de otro
de doble, basta con observar el número
de agujeros que presenta en su parte
inferior. Si tiene sólo uno, situado en el
lado
izquierdo
de
la
imagen
y
generalmente provisto de una pestaña
móvil, se trata de un disco de doble
densidad; si tiene dos agujeros, no hay
duda de que se trata de un disco de alta
densidad. Si el primero de los agujeros
está
al
descubierto
el
disco
estará
protegido contra escritura; el segundo sólo sirve para diferenciar ambos tipos de
disquetes.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
131
De cualquier forma, el disquete deberá estar formateado a la capacidad correcta,
para lo cual podemos usar la orden FORMAT del DOS o bien los menús de Windows
(personalmente, prefiero la orden de DOS). Debe tenerse en cuenta que si no
especificamos nada, el disco intentará ser formateado a la capacidad nominal de la
disquetera, lo que con un disco de capacidad inferior puede ser un error desastroso.
Por ejemplo, a continuación aparecen algunas órdenes de formateado comunes:
Orden de formateado
Explicación
FORMAT A:
Da formato al disco de la unidad "A" a la capacidad nominal
de la disquetera
FORMAT B: /F:720
Da formato al disco de la unidad "B" a 720 Kb de capacidad
FORMAT A: /S
Da formato al disco de la unidad "A" a la capacidad nominal
de la disquetera y copia los archivos de sistema (es decir,
crea un disco básico de arranque)
Los ordenadores normales disponen de un puerto para dos disqueteras, que irán
conectadas a un único cable de datos. La que esté conectada en el extremo del
mismo será la primera (la "A" en DOS) y la que esté en el segundo conector, entre
el ordenador y la anterior disquetera, será la segunda (la "B").
Resulta común tener un ordenador que resulta suficiente para las tareas que le
pedimos, pero que tiene una disquetera de un modelo anticuado, bien de 5,25" o
de 3,5" de doble densidad, para las que incluso puede ser difícil encontrar discos
apropiados (especialmente en el caso de las de 5,25"). En tal caso, merece la pena
instalar una disquetera moderna de 3,5" y 1,44 MB, ya que cuestan menos de
5.000 pts y es una de las tareas más sencillas de hacer, como se explica en este
hipervínculo.
Los disquetes tienen fama de ser unos dispositivos muy poco fiables en cuanto al
almacenaje a largo plazo de la información; y en efecto, lo son. Les afecta todo lo
imaginable: campos magnéticos, calor, frío, humedad, golpes, polvo... Hace un
tiempo verifiqué unos 25 disquetes de diferentes marcas de un antiguo 286, que
estaban guardados en una caja de plástico para disquetes, y casi la mitad no
funcionaba, lo que no me sorprendió en absoluto.
Si tiene programas en disquete, haga copias inmediatamente y guarde los
originales en lugar seguro. Si tiene datos importantes almacenados en disquete,
haga copias nuevas y piense en otro método mejor de almacenaje. Y ante todo,
compre siempre disquetes de marca. No le salvarán de los fallos futuros, pero
al menos estarán más o menos bien de origen; las economías en estos temas son
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
132
malas compañeras, huya de los disquetes metidos en cajas blancas sin logotipos
como de la peste o le pesará...
Discos duros
Son otro de los elementos habituales
en los ordenadores, al menos desde los
tiempos del 286. Un disco duro está
compuesto de numerosos discos de
material
sensible
a
los
campos
magnéticos, apilados unos sobre otros;
en realidad se parece mucho a una pila
de disquetes sin sus fundas y con el
mecanismo de giro y el brazo lector
incluido en la carcasa.
Los
discos
duros
han
evolucionado
mucho desde los modelos primitivos de
10 ó 20 MB. Actualmente los tamaños son del orden de varios gigabytes, el tiempo
medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia es
tan alta que deben girar a más de 5.000 rpm (revoluciones por minuto), lo que
desgraciadamente hace que se calienten como demonios, por lo que no es ninguna
tontería instalarles un ventilador para su refrigeración.
Una diferencia fundamental entre unos y otros discos duros es su interfaz de
conexión. Antiguamente se usaban diversos tipos, como MFM, RLL o ESDI, aunque
en la actualidad sólo se emplean dos: IDE y SCSI.
Discos duros IDE
El interfaz IDE (más correctamente denominado ATA, el estándar de normas en
que se basa) es el más usado en PCs normales, debido a que tiene un balance
bastante adecuado entre precio y prestaciones. Los discos duros IDE se distribuyen
en canales en los que puede haber un máximo de 2 dispositivos por canal; en el
estándar IDE inicial sólo se disponía de un canal, por lo que el número máximo de
dispositivos IDE era 2.
El estándar IDE fue ampliado por la norma ATA-2 en lo que se ha dado en
denominar EIDE (Enhanced IDE o IDE mejorado). Los sistemas EIDE disponen de 2
canales IDE, primario y secundario, con lo que pueden aceptar hasta 4
dispositivos, que no tienen porqué ser discos duros mientras cumplan las normas
de conectores ATAPI; por ejemplo, los CD-ROMs y algunas unidades SuperDisk se
presentan con este tipo de conector.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
133
En cada uno de los canales IDE debe haber un dispositivo Maestro (master) y otro
Esclavo (slave). El maestro es el primero de los dos y se suele situar al final del
cable, asignándosele generalmente la letra "C" en DOS. El esclavo es el segundo,
normalmente conectado en el centro del cable entre el maestro y la controladora, la
cual muchas veces está integrada en la propia placa base; se le asignaría la letra
"D".
Los dispositivos IDE o EIDE como discos duros o CD-ROMs disponen de unos
microinterruptores (jumpers), situados generalmente en la parte posterior o inferior
de los mismos, que permiten seleccionar su carácter de maestro, esclavo o incluso
otras posibilidades como "maestro sin esclavo". Las posiciones de los jumpers
vienen indicadas en una pegatina en la superficie del disco, o bien en el manual o
serigrafiadas en la placa de circuito del disco duro, con las letras M para designar
"maestro" y S para "esclavo".
Otros avances en velocidad vienen de los modos de acceso:
Modo de acceso
Transferencia
Comentario
máxima
teórica
PIO-0
3,3 MB/s
En discos muy antiguos, de 100 MB o
menos
PIO-1
5,2 MB/s
PIO-2
8,3 MB/s
PIO-3
11,1 MB/s
PIO-4
16,6 MB/s
DMA-1 multiword
13,3 MB/s
DMA-2 multiword o DMA/16 16,6 MB/s
UltraDMA
(DMA33
En discos antiguos, de capacidad menor
de unos 400 MB
Típicos en discos de capacidad entre
unos 400 MB y 2 GB
Modos de utilidad dudosa, ya que su
velocidad no es mayor que en el modo
PIO-4
o 33,3 MB/s
El estándar hasta hace muy poco
o 66,6 MB/s
El estándar actual; utiliza un cable de
UltraDMA modo 2)
UltraDMA66
(ATA66
UltraDMA modo 4)
40 pines y 80 conductores
Aunque en este terreno se barajan las cifras de transferencia máxima teóricas
entre el disco duro y el PC, no las que físicamente puede alcanzar el disco
internamente; los 66,6 MB/s son absolutamente inalcanzables para cualquier disco
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
134
duro actual. En realidad, llegar a 25 MB/s con un disco duro UltraDMA es algo
bastante difícil de conseguir, actualmente las cifras habituales están más bien por
unos 10 a 20 MB/s.
Los modos PIO se habilitan generalmente mediante la BIOS y dan pocos
problemas, aunque en discos duros no actuales a veces la autodetección del modo
PIO da un modo un grado superior al que realmente puede soportar con fiabilidad,
pasa mucho por ejemplo con discos que se identifican como PIO-4 pero que no son
fiables más que a PIO-3.
Los modos DMA tienen la ventaja de que liberan al microprocesador de gran parte
del trabajo de la transferencia de datos, encargándoselo al chipset de la placa (si es
que éste tiene esa capacidad, como ocurre desde los tiempos de los Intel Tritón),
algo parecido a lo que hace la tecnología SCSI. Sin embargo, la activación de esta
característica (conocida como bus mastering) requiere utilizar los drivers
adecuados y puede dar problemas con el CD-ROM, por lo que en realidad el único
modo útil es el UltraDMA (y ni siquiera he comentado los muy desfasados modos
DMA singleword).
Se debe tener en cuenta que la activación o no de estas características es opcional
y la compatibilidad hacia atrás está garantizada; podemos comprar un disco duro
UltraDMA y usarlo en modo PIO-0 sin problemas, sólo estaremos tirando el dinero.
Así que si quiere un disco para un 486 que no soporta bus mastering, no se
preocupe: compre un disco UltraDMA y seleccione el modo PIO-4, apenas apreciará
la diferencia de rendimiento y la instalación será incluso más sencilla.
Discos duros SCSI
Sobre este interfaz ya hemos hablado antes en el apartado de generalidades; sólo
recalcar que la ventaja de estos discos no está en su mecánica, que puede ser
idéntica a la de uno IDE (misma velocidad de rotación, mismo tiempo medio de
acceso...) sino en que la transferencia de datos es más constante y casi
independiente de la carga de trabajo del microprocesador.
Esto hace que la ventaja de los discos duros SCSI sea apreciable en ordenadores
cargados de trabajo, como servidores, ordenadores para CAD o vídeo, o cuando se
realiza multitarea de forma intensiva, mientras que si lo único que queremos es
cargar Word y hacer una carta la diferencia de rendimiento con un disco UltraDMA
será inapreciable.
En los discos SCSI resulta raro llegar a los 20 MB/s de transferencia teórica del
modo Ultra SCSI, y ni de lejos a los 80 MB/s del modo Ultra-2 Wide SCSI, pero sí a
cifras quizá alcanzables pero nunca superables por un disco IDE. De lo que no hay
duda es que los discos SCSI son una opción profesional, de precio y prestaciones
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
135
elevadas, por lo que los fabricantes siempre escogen este tipo de interfaz para sus
discos de mayor capacidad y velocidad. Resulta francamente difícil encontrar un
disco duro SCSI de mala calidad, pero debido a su alto precio conviene proteger
nuestra inversión buscando uno con una garantía de varios años, 3 ó más por lo
que pueda pasar... aunque sea improbable.
Dispositivos removibles
Vamos
a
comentar
ahora
los
demás
dispositivos
de
almacenamiento que no aparecen de manera estándar en la
configuración de un PC... al menos por ahora, porque tal
como está el mundo informático nunca se sabe cuándo
serán tan comunes como la disquetera o el disco duro. Se
denominan removibles no porque se les dé vueltas como a
la sopa, sino porque graban la información en soportes
(discos o cartuchos) que se pueden remover, extraer.
La clasificación hace referencia a su capacidad de almacenamiento, por ser ésta una
de las principales características que influyen en la compra o no de uno de estos
periféricos, pero para hacer una compra inteligente se deben tener en cuenta otros
parámetros que se comentan en la explicación como velocidad, durabilidad,
portabilidad y el más importante de todos: su precio.
Dispositivos hasta 250 MB de capacidad
Son dispositivos que buscan ofrecer un sustituto de la disquetera, pero sin llegar a
ser una opción clara como backup (copia de seguridad) de todo un disco duro. Hoy
en día muchos archivos alcanzan fácilmente el megabyte de tamaño, y eso sin
entrar en campos como el CAD o el tratamiento de imagen digital, donde un archivo
de 10 MB no es en absoluto raro.
Por ello, con estos dispositivos podemos almacenar fácil y rápidamente cada
proyecto en un disco o dos, además de poder realizar copias de seguridad
selectivas de los datos del disco duro, guardando sólo los archivos generados por
las aplicaciones y no los programas en sí.
Zip (Iomega) - 100 MB

Pros: portabilidad, reducido formato, precio global, muy extendido

Contras: capacidad reducida, incompatible con disquetes de 3,5"
Las unidades Zip se caracterizan externamente por ser de un color azul oscuro, al
igual que los disquetes habituales (los hay de todos los colores, incluso algunos
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
136
muy poco serios). Estos discos son dispositivos magnéticos un poco mayores que
los clásicos disquetes de 3,5 pulgadas, aunque mucho más robustos y fiables, con
una capacidad sin compresión de 100 MB una vez formateados.
Este tamaño les hace inapropiados para hacer copias de seguridad del disco duro
completo, aunque idóneos para archivar todos los archivos referentes a un mismo
tema o proyecto en un único disco. Su velocidad de transferencia de datos no
resulta comparable a la de un disco duro actual, aunque son decenas de veces más
rápidos que una disquetera tradicional (alrededor de 1 MB/s para la versión SCSI).
Existen en diversos formatos, tanto internos como externos. Los internos pueden
tener interfaz IDE, como la de un disco duro o CD-ROM, o bien SCSI; ambas son
bastante rápidas, la SCSI un poco más, aunque su precio es también superior.
Las versiones externas aparecen con interfaz SCSI (con un rendimiento idéntico a
la versión interna) o bien conectable al puerto paralelo, sin tener que prescindir de
la impresora conectada a éste. Puede funcionar de pie o tumbada, y la única "pega"
es que no nos guste su extravagante color (el azul marino profundo se lleva mucho
para este tipo de periféricos, pero no me pregunten el porqué). El modelo para
puerto paralelo pone el acento en la portabilidad absoluta entre ordenadores (basta
que tengan este puerto, el de impresora), aunque su velocidad es la más reducida
de las tres versiones. Muy resistente, puede ser el acompañante ideal de un
portátil.
Ha tenido gran aceptación, siendo el estándar "de facto" en su segmento, pese a no
poder prescindir de la disquetera de 3,5" con la que no son en absoluto
compatibles, aunque sus ventajas puede que suplan este inconveniente. El precio
de la versión interna ronda las 14.000 pts más IVA, con discos entorno a 1.500 pts.
Por cierto, parece ser que muchas de las primeras unidades Zip sufrían el
denominado "mal del click", que consistía en un defecto en la unidad lectoragrabadora que, tras hacer unos ruiditos o "clicks", destrozaba el disco introducido;
afortunadamente, este defecto está corregido en las unidades actuales. En todo
caso, los discos son bastante resistentes, pero evidentemente no llegan a durar lo
que un CD-ROM o un magneto-óptico.
SuperDisk LS-120 - 120 MB
(Imation/Panasonic)

Pros:
reducido
formato,
precio
global,
compatibilidad con disquetes 3,5"

Contras: capacidad algo reducida, menor
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
137
aceptación que el Zip
Estos discos son la respuesta a la cada vez más
común desesperación del usuario que va a grabar su
trabajo en un disquete y se encuentra con que supera
los temidos 1,44 MB. No importa, meta un SuperDisk,
que aparenta ser un disquete de 3,5" algo más
grueso, y ya tiene 120 MB a su disposición.
Aparentemente, esta compatibilidad con los disquetes clásicos (ojo, con la
nueva disquetera, no basta con comprarse los superdisquetes) deja K.O. al Zip,
pero esto no es así. El problema está en que la velocidad de este dispositivo, unos
400 Kb/s, si bien es suficiente y supera con creces la de una disquetera de 3,5", es
algo menos de la mitad de la de un Zip (al menos si se trata de la versión SCSI del
Zip).
La unidad se vende con conexión IDE para la versión interna o bien puerto paralelo
(el de impresora) para la externa, que, aunque parece menos pensada para viajes
accidentados que el Zip, permite conectarla a cualquier ordenador sin mayores
problemas. Además, acaba de ser presentada una versión USB que hace la
instalación aún más sencilla. Si la BIOS de su placa lo permite (lo cual sólo ocurre
con placas modernas de una cierta calidad, por ejemplo muchas para Pentium II)
puede configurar la versión IDE incluso como unidad de arranque, con lo que no
necesitará para nada la disquetera de 3,5".
Su mayor "handicap" reside en haber dejado al Zip como única opción durante
demasiado tiempo, pero la compatibilidad con los disquetes de 3,5" y sus 20 MB
extra parece que están cambiando esta situación. Si va a comprar un ordenador
nuevo, le compensará pedir que le instalen un SuperDisk en vez de la disquetera de
3,5" (recuerde, si la BIOS lo admite); si no, la decisión entre Zip y SuperDisk es
más difícil, incluso cuestan prácticamente lo mismo.
EZFlyer (SyQuest) - 230 MB

Pros: precio de los discos, capacidad elevada

Contras: poca implantación en España
El EZFlyer es el descendiente del EZ135, cuyos discos de 135 MB puede utilizar
además de los suyos propios de 230 MB. Se trata de lo que se suele denominar un
dispositivo Winchester, que en este caso no es un rifle sino un disco duro removible
como lo es el Jaz.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
138
Como dispositivo de este tipo, es tremendamente veloz: hasta 2 MB/s y menos
de 20 ms de tiempo de acceso para la versión SCSI, unas cifras muy por encima de
lo que son capaces de conseguir el Zip y el SuperDisk. A decir verdad, se trata de
un producto excelente, con el único problema (enorme, eso sí) de que es casi
desconocido en España.
No es un problema exclusivo del EZFlyer; los productos de SyQuest en general
están pero que muy poco extendidos en nuestro país y eso repercute en su precio,
casi 30.000 pts la unidad lectora-grabadora, lo que son unas 5.000 pts más que en
EEUU (y eso si la encuentra, que puede ser algo difícil). Afortunadamente los
discos, aunque acusan esta escasez de distribuidores, siguen siendo muy baratos:
menos de 4.000 pts, muy bajo precio para tener más del doble de capacidad que
un Zip.
En fin, no hay mucho más que comentar: es un buen dispositivo, cómodo,
transportable, asequible de precio y capaz ya de realizar backups de un disco duro
completo, aunque seguimos necesitando una cantidad de discos considerable.
Existe en versiones SCSI y para puerto paralelo, de las cuales recomendamos la
SCSI, como siempre, ya que la de puerto paralelo permite mayor transportabilidad
pero limita la velocidad a la mitad.
Puesto que es un dispositivo interesante pero no muy conocido, vamos a hacer una
excepción y dar un par de teléfonos de distribuidores a través de los cuales
probablemente pueda adquirirse el EZFlyer: Mitrol (91 518 04 95) y Sintronic (977
29 72 00). Espero que sea útil la información, se la debo a PC-Actual (así que no
quiero críticas, salvo que sean de las propias empresas, si no está el teléfono
correcto ni nada por el estilo, no quiero enfadarme ¡rourghh!!).
Dispositivos hasta 2 GB de capacidad
A estos dispositivos se les podría denominar multifuncionales; sirven tanto para
guardar grandes archivos o proyectos de forma organizada, como para realizar
copias de seguridad del disco duro de forma cómoda e incluso como sustitutos de
un segundo disco duro... o en el caso extremo, incluso del primero.
No incluimos algunos dispositivos de cinta cuya capacidad les haría estar en este
apartado, ya que carecen de la versatilidad que hemos comentado, siendo
fundamentalmente periféricos destinados a realizar backups del disco entero.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
139
Magneto-ópticos de 3,5" - 128 MB a 1,3
GB

Pros: alta seguridad de los datos,
portabilidad, bajo precio de los discos,
fácil manejo

Contras:
inversión
inicial,
poca
implantación
Se trata de dispositivos que aúnan lo mejor de ambas tecnologías para ofrecer un
producto con un bajo coste por MB almacenado, bastante rápido, con un soporte
absolutamente transportable y sobre todo perdurable: almacenan sus datos
prácticamente para siempre, sin afectarles lo más mínimo los campos magnéticos
(ni el polvo, calor, humedad, etc, hasta un límite razonable), a la vez que le
permite reescribir sus datos tantas veces como quiera.
Son capaces de almacenar hasta 1,3 GB en discos muy similares a los
disquetes de 3,5" (sí, así de pequeños) que tienen una cubierta de plástico para
protegerlos de los golpes y el polvo, no como los CDs con su superficie expuesta a
involuntarias huellas de dedos que los inutilicen.
Una vez instalada la unidad, se maneja como si fuera un disco duro más (sin
necesidad de ningún programa accesorio). Existen discos y lectores-grabadores de
128, 230, 540, 640 MB y 1,3 GB, pero en la actualidad sólo son recomendables los
de 640 MB y 1,3 GB (estos últimos algo caros), que además permiten leer y escribir
en los discos de menor capacidad (excepto en los de 128 MB, que generalmente
sólo pueden ser leídos). Ah, no son compatibles con esas antiguallas que son los
disquetes normales de 1,44 MB, por supuesto.
Su velocidad es muy elevada, comparable a la de los discos duros de hace
pocos años, pero tiene el problema de que el proceso utilizado obliga a que la
escritura se realice a la mitad de la velocidad de la lectura. Así, mientras que se
pueden alcanzar casi los 2,5 MB/s en lectura (una velocidad comparable a la de un
CD-ROM 24x), la escritura se queda en alrededor de 1 MB/s, con un tiempo de
acceso cercano al de un disco duro (menos de 40 ms). Para subsanar este
problema, Fujitsu (una de las empresas que más potencian este mercado) a sacado
unos nuevos modelos con tecnología LIMDOW (también conocida simplemente
como OW, por OverWrite) en los que se puede alcanzar más de 1,5 MB/s en
escritura.
Lo malo de la tecnología OW es que además de una unidad lectora-grabadora
reciente necesita discos especiales, más caros que los normales; pero eso no es
mucho problema, ya que los discos de 640 MB clásicos cuestan unas 1.300
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
140
pts (con IVA) y los OW menos del doble; incluso los Zip de 100 MB son más caros.
Un precio ridículamente bajo, en mi opinión, para un soporte que cabe en un
bolsillo, es super resistente y en el que se puede escribir miles de veces a una
velocidad más del doble de rápida que en una grabadora de CDs 4x.
Sus únicos problemas son el precio de la unidad lectora-grabadora, unas 30.000 pts
más
IVA,
y
su
relativamente
escasa
implantación.
Aunque
en
ambientes
profesionales son bastante comunes, lo cierto es que no permiten copiar CDs ni
juegos de PlayStation...
Grabadoras de CD-ROM - 650 MB

Pros: alta seguridad de los datos, compatibilidad, bajo precio de los discos

Contras: inversión inicial, capacidad y velocidad relativamente reducidas
Lo primero, hacer distinción entre grabadoras (aquellas que sólo permiten grabar
la información una vez, sin que luego se pueda volver a escribir en el CD) y
regrabadoras (las que, utilizando los discos apropiados, permiten grabarles
numerosas veces, en teoría unas mil). De todas formas cada vez quedan menos
grabadoras que no sean también regrabadoras, pero conviene que se informe por si
acaso, evidentemente no es lo mismo lo uno que lo otro.
Las grabadoras son como lectores de CD-ROM pero que permiten grabar además de
leer. ¿En cualquier tipo de CD? No, en absoluto, para nada. Los CDs comerciales, de
música o datos, son absolutamente inalterables, lo cual es una de sus ventajas. Los
CDs grabables son especiales y de dos tipos: CD-R (Recordable, grabable una única
vez), que cuestan unas 200 pts, y CD-RW (ReWritable, regrabable múltiples veces)
por unas 1.000 pts.
El ridículo precio de los CDs grabables una única vez los hace idóneos para
almacenar datos que son poco o nada actualizados, así como para realizar
pequeñas tiradas de software propio o "copias de seguridad" de software comercial
(en realidad para lo que suelen servir es para piratear software, para qué
engañarnos). Los regrabables sirven para realizar backups del disco duro o de la
información más sensible a ser actualizada constantemente.
Las características de esta tecnología determinan a la vez sus ventajas y sus
principales problemas; los CD-ROMs, aunque son perfectos para distribuir datos por
estar inmensamente extendidos, nunca han sido un prodigio de velocidad, y las
grabadoras acentúan esta carencia. Si en los lectores de CD-ROM se habla como
mínimo de 24x (otra cosa es que eso sea mentira, en realidad la velocidad media
pocas veces supera los 1,8 MB/s, los 12x), en estas unidades la grabación se
realiza generalmente a 4x (600 Kb/s), aunque algunas ofrecen ya 8x o más.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
141
Pero alcanzar o superar 4x no siempre es posible, ojo, especialmente si la fuente de
los datos es lenta o inestable (como un lector de CD-ROM). Lo que es más, la
lectura en el propio grabador no suele superar los 16x, por lo que se suele usar un
lector como complemento. Esto hace que, aunque el resultado es igualmente
invulnerable a campos magnéticos, humedad, etc, resulte mucho más práctico
utilizar un dispositivo magneto-óptico si se desea velocidad, versatilidad y mayor
resistencia y dejar las grabadoras de CD para copiar discos y hacer copias de
seguridad. Claro está que para piratear software resultan más prácticas, pero allá
cada uno con su conciencia...
Por lo demás, indicar que el resultado de la grabación en un disco grabable una
única vez se puede leer en cualquier lector no prehistórico (digamos un 2x), pero
los discos regrabables dan más problemas, y no es raro que fallen en lectores algo
antiguos, por ejemplo 4x ó 6x, pero con lectores modernos no existen problemas.
Para realizar una grabación de cualquier tipo se recomienda poseer un equipo
relativamente potente, digamos un Pentium sobrado de RAM (al menos 32 MB).
Para evitar quedarnos cortos (lo que puede impedir llegar a grabar a 4x o estropear
el CD por falta de continuidad de datos) podemos comprar una grabadora SCSI,
que dan un flujo de datos más estable, tener una fuente de datos (disco duro o CDROM) muy rápida, no grabar directamente de CD-ROM a grabadora (mejor de CDROM a disco duro y luego a grabadora), comprar un grabador con un gran buffer de
memoria incorporado (más de 1MB) o asegurarnos de que la grabadora cumple la
norma IPW o mejor UDF, que facilitan la grabación fluida de datos sin errores.
Las unidades únicamente grabadoras están en proceso de extinción, ya que las
regrabadoras cada vez son más asequibles, unas 25.000 pts más IVA en versión
IDE y unas 30.000 en versión SCSI.
Jaz (Iomega) - 1 GB ó 2 GB

Pros: capacidad muy elevada, velocidad, portabilidad

Contras: inversión inicial, no tan resistente como un
magneto-óptico, cartuchos relativamente caros
Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles
de las de un disco duro moderno: poco más de 5 MB/s y menos de 15 ms. La razón
de esto es fácil de explicar: cada cartucho Jaz es internamente, a casi todos los
efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se
encuentra en la unidad.
Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y
velocidad,
junto
con
sus
inconvenientes:
información
sensible
a
campos
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
142
magnéticos, durabilidad limitada en el tiempo, relativa
fragilidad. De cualquier forma, y sin llegar a la extrema
resistencia de los discos Zip, podemos calificar este
soporte de duro y fiable, aunque la información nunca
estará tan a salvo como si estuviera guardada en un
soporte óptico o magneto-óptico.
¿Aplicaciones?
Almacenamiento
masivo
de
datos
que
deben
guardarse
y
recuperarse con la mayor velocidad posible, lo cual lo hace ideal para la edición de
vídeo digital (casi una hora en formato MPEG); en general, sirve para lo mismo que
los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje.
En cuanto a defectos y críticas, aparte de que los datos no duren "para siempre",
sólo tiene un handicap: el precio. La unidad lectora-grabadora de 1 GB vale una
respetable cantidad de dinero, unas 40.000 pts, y los discos unas 12.000 pts. ¿Una
locura? ¿Lo bueno lo vale? Sea como sea, es un elemento profesional, no es apto
como capricho... o al menos para caprichosos sin dinero.
Por cierto: la versión de 2 GB, completamente compatible con los cartuchos de 1
GB (pero no los cartuchos de 2 GB con la unidad de 1 GB, mucho ojo), es algo más
cara, por lo que quizá no tenga tanto interés. Si necesita tanta capacidad por disco
piense si no le merecerá más la pena algo menos rápido pero más fiable como un
magneto-óptico de 5,25", una inversión como ésta no se hace todos los días.
SyJet (SyQuest) - 1,5 GB

Pros: capacidad muy elevada, velocidad, portabilidad, precio de los
cartuchos

Contras: inversión inicial, no tan resistente como un magneto-óptico
De nuevo otro buen dispositivo de SyQuest gafado en España; ¡este mundo de la
informática es la &%#@, oigan! ("la leche", me refiero; ¿qué barbaridad creían?).
Tiene un 50% más de capacidad que el Jaz normal, la misma velocidad y un precio
(al menos en EEUU) idéntico al de éste, pero en nuestro país no lo conoce casi
nadie. Será cosa del márketing ese, supongo.
Pues eso: casi idéntico al Jaz pero con cartuchos de 1,5 GB y una velocidad
mínimamente inferior, de 5 MB/s y menos de 15 ms. Existe con todo tipo de
interfaces: SCSI, EIDE e incluso puerto paralelo, pero por supuesto no lo utilice con
este último tipo de conector o la velocidad quedará reducida a un quinto de la
indicada, que corresponde a la SCSI (o a la EIDE en un ordenador potente y sin
utilizar mucho el microprocesador, ya sabe).
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
143
Su precio si lo encuentra (suerte, amigo; pruebe en los mismos sitios donde vendan
el EZFlyer) estará cercano al del Jaz de 1 GB, unas 40.000 pts, o quizá unas 5.000
pts más caro por aquello de ser menos común (le dirán que es por el medio giga de
diferencia, pero curiosamente en el extranjero esa diferencia no la cobran...).
Dispositivos de más de 2 GB de capacidad
En general podemos decir que en el mundo PC sólo se utilizan de manera común
dos tipos de dispositivos de almacenamiento que alcancen esta capacidad: las
cintas de datos y los magneto-ópticos de 5,25". Las cintas son dispositivos
orientados específicamente a realizar copias de seguridad masivas a bajo coste,
mientras que los magneto-ópticos de 5,25" son mucho más versátiles... y
muchísimo más caros.
Cintas magnéticas de datos - hasta más de 4 GB

Pros:
precios
asequibles,
muy
extendidas,
enormes capacidades

Contras:
extrema
lentitud,
útiles
sólo
para
backups
Seguro que ha visto más de una vez en una película antigua o en la televisión esa
especie de enormes armarios acristalados en los que unos círculos oscuros de más
de 30 cm de diámetro giran como locos mientras Sean Connery, encarnando al
inefable 007, se enfrenta al científico loco de turno; bueno, pues esos círculos son
cintas de datos de ordenador. Afortunadamente los tiempos han cambiado mucho:
hoy en día las cintas de datos vienen con funda y no son mayores que las de
música o las cintas de vídeo de 8 mm, lo que es un avance evidente; en cambio,
sobre si Pierce Brosnan es tan buen 007 como Connery habría opiniones, aunque
tampoco lo hace mal.
Las cintas magnéticas de datos o streamers presentan muchos problemas como
dispositivo de almacenaje de datos: casi todos los tipos son tremendamente
lentas (típicamente menos de 250 Kb/s, una velocidad casi ridícula); lo que es
peor, los datos se almacenan secuencialmente, por lo que si quiere recuperar un
archivo que se encuentra a la mitad de la cinta deberá esperar varias decenas de
segundos hasta que la cinta llegue a esa zona; y además, los datos no están en
exceso seguros, ya que como dispositivos magnéticos les afectan los campos
magnéticos, el calor, etc, además del propio desgaste de las cintas.
Entonces, ¿por qué se fabrican? Porque son baratas, muy baratas. Existen
unidades lectoras-grabadoras por menos de 15.000 pts, y las cintas pueden costar
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
144
unas 3.000 pts una de 2 GB. Pero el ser baratas no elimina el resto de problemas,
por lo que sólo son prácticas para realizar backups masivos del disco duro (o
selectivos, según), aunque teniendo en cuenta que el proceso para un disco duro
de tamaño medio puede llegar a durar fácilmente un par de horas usando cintas
normales.
Uno de los motivos que hace tan lentas a las cintas de datos es el tipo de interfaz
que se utiliza. Generalmente se usa el conector para disquetera, el cual es muy
lento, los comentados 250 Kb/s máximo (que rara vez se alcanzan); lo que es más,
debe poder configurarse la BIOS como si hubiéramos conectado una disquetera de
2,88 MB, lo que no es posible si la BIOS es antigua, como la de algunos 486 y las
anteriores. En el caso de que la BIOS admita como máximo disqueteras de 1,44
MB, la velocidad se reducirá a la mitad.
En otras cintas se utiliza el puerto paralelo (con mayor ancho de banda, pero
apenas aprovechado) y en cintas de datos más caras y rápidas se utilizan interfaces
EIDE o SCSI, lo que aumenta el rendimiento pero nunca de forma espectacular, ya
que el elemento más limitante es la propia maquinaria mecánica de la unidad.
Además, el modo de acceso secuencial hace totalmente imposible usarlas de forma
eficaz "a lo disco duro", salvo que entendamos por esto esperar y esperar cada vez
que queremos un fichero...
Los tipos principales de unidades de cinta son las QIC, Travan y DAT. Las Travan
son una subclase que deriva de las QIC, con las que suelen guardar un cierto grado
de compatibilidad; ambas forman el segmento económico del almacenaje en cinta,
por ejemplo 20.000 pts una unidad de 1 GB de capacidad y 2.000 pts cada una de
las cintas correspondientes.
Las cintas DAT (Digital Audio Tape) son otra historia,
desde luego, tanto en velocidad como en precio. El
acceso sigue siendo secuencial, pero la transferencia
de datos continua (lectura o escritura) puede llegar a
superar 1 MB/s, lo que justifica que la práctica
totalidad utilicen interfaz SCSI. Sin embargo, el
precio resulta prohibitivo para un uso no profesional:
más de 100.000 pts una unidad de 4 GB de capacidad, aunque las cintas son
baratas: unas 4.000 pts para una de 4 GB, por cierto realmente pequeña.
Marcas y modelos existen infinidad, ya que es un mercado muy maduro y basado
en su mayoría en estándares, lo que redunda en unos precios más bajos y una
mayor facilidad para encontrar las cintas apropiadas. Ejemplos destacados son los
modelos Ditto de Iomega, los Colorado de Hewlett Packard, los TapeStor de
Seagate y los modelos DAT de Sony o Hewlett Packard.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
145
Para terminar, una curiosidad muy importante: la capacidad física real de las
cintas de datos suele ser la mitad de la nominal indicada en el exterior de la caja de
la unidad o de la cinta, ya que al sólo utilizarse para hacer backups, generalmente
comprimiendo los datos, suponen que se va a alcanzar una compresión de 2:1.
En realidad la compresión depende del tipo de datos a comprimir (los programas se
comprimen poco y los archivos de texto mucho, por ejemplo), por lo que le
recomiendo que piense más bien en una compresión 1,5:1. Resumiendo, que si la
unidad se anuncia como de 2 GB, seguro que es de 1 GB (lo que vendrá en alguna
parte pero en letras más pequeñas) y casi seguro que podrá almacenar más o
menos 1,5 GB de datos comprimidos; en este texto no se ha usado este truco
publicitario.
Magneto-ópticos de 5,25" - hasta 4,6 GB

Pros: versatilidad, velocidad, fiabilidad, enormes capacidades

Contras: precios elevados
Los magneto-ópticos de 5,25" se basan en la misma tecnología que sus hermanos
pequeños de 3,5", por lo que atesoran sus mismas ventajas: gran fiabilidad y
durabilidad de los datos a la vez que una
velocidad razonablemente elevada.
En este caso, además, la velocidad llega
a ser incluso superior: más de 3 MB/s en
lectura y más de 1,5 MB/s en escritura
usando discos normales. Si el dispositivo
soporta discos LIMDOW, la velocidad de
escritura casi se duplica, con lo que
llegaríamos a una velocidad más de 5
veces superior a la grabadora de CDROMs más rápida y comparable a la de los discos duros, lo que determina la
utilización del interfaz SCSI exclusivamente y el apelativo de discos duros ópticos
que se les aplica en ocasiones.
Además, el cambio de tamaño de 3,5" a 5,25" implica un gran aumento de
capacidad; los discos van desde los 650 MB hasta los 5,2 GB, o lo que es lo mismo:
desde la capacidad de un solo CD-ROM hasta la de 8, pasando por los discos más
comunes, los de 1,3 y 2,6 GB. Con estas cifras y esta velocidad, hacer un backup
de un disco duro de 2,5 GB no lleva más de un cuarto de hora y el cartucho
resultado es sólo un poco más grande que la funda de un CD, ya que a eso se
parecen los discos: a CDs con una funda tipo disquete.
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
146
En la actualidad los modelos más extendidos son los de 2,6 GB de capacidad
máxima, en los que está implantándose rápidamente el sistema LIMDOW. Puesto
que se trata de dispositivos basados en estándares, existen varias empresas que
los fabrican, por ejemplo Hewlett Packard, Sony o
Pinnacle Micro.
Esta última empresa, Pinnacle, que se dedica casi en
exclusiva a estos dispositivos, tiene uno de los
productos más interesantes de este mercado: el
Apex. Se trata de un dispositivo que admite discos
normales de 2,6 GB, pero que además tiene unos
discos
especiales,
de
diseño
propietario
(no
compatibles con otros aparatos), que llegan hasta los 4,6 GB, todo ello con una
gran velocidad y a un precio incluso inferior al de muchos dispositivos normales de
sólo 2,6 GB.
Pero ése, el precio, es el inconveniente (terrible inconveniente) de este tipo de
periféricos. Las unidades de 2,6 GB se venden por unas 175.000 pts, mientras que
las de 5,2 GB superan holgadamente este precio. Los discos, sin embargo, son
bastante económicos para su gran capacidad, enorme resistencia y durabilidad:
unas 10.000 pts uno de 2,6 GB. Aunque si piensa comprar un dispositivo de
almacenamiento realmente masivo y dispone del suficiente dinero, no lo dude: no
existe mejor opción, sobre todo si quiere la seguridad absoluta de que dentro de 30
años aún podrá recuperar sus datos sin problemas.
Copias de seguridad (backups)
En las anteriores páginas se ha comentado numerosas veces la mayor o menor
idoneidad de los aparatos para su utilización como dispositivos de copia de
seguridad o, como dicen los ingleses, backup. A continuación voy a intentar dar
unas ideas generales sobre este tema, que tiene mucha mayor importancia de lo
que parece.
Si algún día llego a publicar un manual de informática, probablemente comenzará
diciendo: "ANTE TODO, MANTENGA BACKUPS RECIENTES DE SUS FICHEROS DE
DATOS", en letras mayúsculas y en el centro de la primera página. A continuación
tendría que explicar qué es un fichero, un backup y sobre todo un ordenador, pero
me temo que si dejara el consejo para más adelante ya no tendría la fuerza que se
merece.
No olvide que un ordenador no es más que un amasijo de cables, plástico y metal,
por mucho que me cueste reconocerlo; es una máquina, y como tal no es
especialmente interesante en sí misma, sino que lo es sobre todo por los datos que
DISPOSITIVOS DE ALMACENAMIENTO (Almacenamiento Secundario)
147
contiene: las cartas a la novia, los informes del trabajo, las fotos de astronomía, los
juegos, las facturas del último trimestre... Eso es lo importante, pero parece que
nos olvidamos de ello muy a menudo; confiamos en que como nunca se ha roto,
nunca se romperá, olvidando la única ley de la informática, la Ley de Murphy:

Si un archivo puede borrarse, se borrará.

Si dos archivos pueden borrarse, se borrará el más importante.

Si
tenemos
una
copia
de
seguridad,
no
estará
lo
suficientemente
actualizada.
Y así hasta el infinito. Los discos duros fallan poco, pero más de lo deseable;
incluso si no fallan, pueden verse afectados por múltiples causas, desde una subida
de tensión eléctrica hasta un tropezón con un cable que nos haga tirar el ordenador
al suelo. La única solución es tener copias de seguridad, actualizarlas a menudo y
esperar que nunca nos haga falta usarlas; a continuación le presento Los Diez
Mandamientos de los Backups:
1. Haga copias de seguridad de todos los datos importantes.
2. Haga una copia de seguridad de los discos de instalación de los programas.
3. Actualice las copias de seguridad tan a menudo como pueda.
4. Revise el estado de sus copias de seguridad de vez en cuando.
5. Si le da pereza copiar todo el disco, al menos copie sus archivos de datos.
6. Si le da pereza copiar todos sus archivos de datos, al menos copie los más
recientes o importantes.
7. No confíe en los disquetes como dispositivo de backup, su fiabilidad es
ínfima.
8. Si no dispone de otra cosa, al menos haga copias en disquete.
9. Sobre todo si utiliza disquetes o cintas magnéticas, tenga más de un juego
de copias, intercámbielos de forma rotatoria y renuévelos de vez en cuando.
10. Guarde las copias en lugar seguro, si no serán copias de seguridad
inseguras.
Bueno, no voy a insistir más; si a estas alturas no le he convencido, es usted un
caso perdido. Pero no diga que no estaba advertido cuando pierda todos los
asientos bancarios de los últimos 3 años de sus clientes, ni tenga vergüenza de
sentirse como para tirarse por una ventana: no sería el primero que lo hace. Ni el
último.
MULTIMEDIA
1. ¿Qué Es Multimedia?
Es cualquier combinación de texto, arte gráfico, sonido, animación y vídeo que llega
a nosotros por computadora u otros medios electrónicos. Es un tema presentado
con lujos de detalles. Cuando conjuga los elementos de multimedia - fotografías y
animación deslumbrantes, mezclando sonido, vídeo clips y textos informativos puede electrizar a su auditorio; y si además le da control interactivo del proceso,
quedarán encantado.
Multimedia estimula los ojos, oídos, yemas de los dedos y, lo más importante, la
cabeza.
Multimedia se compone, como ya de describió, de combinaciones entrelazadas de
elementos de texto, arte gráfico, sonido, animación y vídeo.
1.1. Multimedia Interactiva:
Es cuando se le permite al usuario final - el observador de un proyecto multimedia controlar ciertos elementos de cuándo deben presentarse.
1.1.1. Hipermedia:
Es cuando se proporciona una estructura ligados a través de los cuales el usuario
puede navegar, entonces, multimedia interactiva de convierte en Hipermedia.
Aunque la definición de multimedia es sencilla, hacer que trabaje puede ser
complicado. No sólo se debe comprendes cómo hacer que cada elemento se levante
y
baile,
sino
también
se
necesita
saber
cómo
utilizar
la
herramientas
computacionales y las tecnologías de multimedia para que trabajen en conjunto.
Las personas que tejen los hilos de multimedia para hacer una alfombra
esplendorosa son desarrolladores de multimedia.
Un proyecto de multimedia no tiene que ser interactivo para llamarse multimedia:
los usuarios pueden reclinarse en el asiento y verlo como lo hacen en el cine o
frente al televisor. En tales casos un proyecto es lineal, pues empieza y corre hasta
el final, cuando se da el control de navegación a los usuarios para que exploren a
voluntad el contenido, multimedia se convierte en no - lineal e interactiva, y es un
puente personal muy poderoso hacia la información.
MULTIMEDIA Y TARJETERIA
150
1.1.2. Herramientas de Desarrollo de Multimedia:
Estar herramientas de programación
están
diseñadas para
administrar los
elementos de multimedia individualmente y permiten interactuar con los usuarios.
Además de proporcionar un método para que los usuarios interactúan con el
proyecto, la mayoría de las herramientas de desarrollo de multimedia ofrecen
además facilidades para crear y editar texto e imágenes, y tienen extensiones para
controlar los reproductores de vídeo disco, vídeo y otros periféricos relacionado. El
conjunto de lo que se produce y la forma de presentarlo al observador es la
interfaces junto de lo que se reproduce y la forma de presentarlo al observador es
la interface humana. Esta interfaces puede definirse tanto por las reglas de lo que
debe suceder con los datos introducidos por el usuario como por los gráficos que
aparecen en la pantalla. El equipo y los programas que rigen los límites de lo que
puede ocurrir es la plataforma o ambiente multimedia.
1.1.3. CD-Rom Y Multimedia:
Multimedia requiere grandes cantidades de memoria digital cuando se almacena en
una biblioteca de usuario final, o de un gran ancho de banda cuando se distribuye
por cables o fibra óptica en una red.
Durante los últimos años el CD - ROM (compact dist - read - only memory , o
memoria de solo lectura es disco compacto), surge como el remedio de distribución
más económico para proyectos de multimedia: un disco CD - ROM puede producirse
en masa por menos de un dólar y puede contener hasta 72 minutos de vídeo de
pantalla completa de excelente calidad, o puede contener mezclas únicas de
imágenes, sonidos, textos, vídeo y animación controladas por un programa de
autor para proporcionar interacción ilimitada a los usuarios.
Se ha estimado que para 1.997 más de 20 millones de reproductores de CD - ROM
estarán en computadoras y conectadas a equipos de televisión, como Sega, 3DO y
sistemas de CD KodaK Photo.
A largo plazo, varios expertos ven al CD - ROM como tecnología de almacenamiento
en memoria provisional que se reemplazará por nuevos dispositivos que no
requieran partes móviles, como la memoria. Ellos también creen que a medida que
la autopista de datos que se describe en seguida se difunda más y más, los medios
de distribución de multimedia que prevalecerán serán el alambre de cobre, la fibra
óptica y las tecnologías radio/celular.
MULTIMEDIA Y TARJETERIA
151
1.2. La Autopista Multimedia:
Ahora que las redes de telecomunicaciones son globales, los proveedores de
información y los propietarios de derechos de autor determinan el valor de sus
productos y cuánto cobran por ellos, los elementos de información se integrarán a
sus desarrollos en línea como recursos distribuidos en una autopista de datos, como
una autopista con castas de cobro, donde usted pagará por adquirir y utilizar la
información basada en multimedia.
Se tendrá acceso a textos completos de libros y revistas, vía módem y enlaces
electrónicos; se proyectarán películas en casa; se dispondrá de noticias casi en el
momento que ocurran en cualquier lugar de la Tierra, esto no es ficción se está
instrumentando ahora, cada una de estas interfaces o puertas a ala información es
un proyecto de multimedia esperando solamente que lo desarrollen.
Dentro de algunos años multimedia interactiva se recibirá en muchos hogares en
todo el mundo, lo que se proporcionará a través de este nuevo sistema son los
mismos
elementos
de
multimedia
descritos
anteriormente:
texto,
gráficos,
animación, sonido y vídeo.
Algunas compañías poseerán las rutas para transportación de datos, mientras otras
tendrán las interfaces de equipo y programas al final de la línea en oficinas de
hogares. Algunos se unirán y darán servicios interactivos cuando se les pida, así
como servicios de facturación. Sin reparar en quién posea las vías de comunicación
y los equipos, los desarrolladores de multimedia crearán la nueva literatura y la
valiosa información que distribuirá. Esta es una industria nueva y estimulante que
está convirtiéndose en realidad, aunque aún enfrenta muchas limitaciones para
crecer.
1.3. ¿Dónde Se Utiliza Multimedia? :
Es conveniente utilizar multimedia cuando las personas necesitan tener acceso a
información electrónica de cualquier tipo. Multimedia mejora las interfaces
tradicionales basada solo en texto y proporciona beneficios importantes que atraen
y mantienes la atención y el interés. Multimedia mejora la retención de la
información presentada, cuando está bien diseñada puede ser enormemente
divertida.
También proporciona una vía para llegar a personas que tienen computadoras, ya
que presenta la información en diferentes formas a la que están acostumbrados.
MULTIMEDIA Y TARJETERIA
152
1.3.1. Multimedia En Los Negocios:
Las
aplicaciones
de
multimedia
en
los
negocios
incluyen
presentaciones,
capacitaciones, mercadotecnia, publicidad, demostración de productos, bases de
datos, catálogos y comunicaciones en red. El correo de voz y vídeo conferencia, se
proporcionan muy pronto en muchas redes de área local (LAN) u de área amplia
(WAN).
La mayoría de los programas de presentación permiten agregar clips de audio y
vídeo a las presentaciones de "diapositivas" pantalla por pantalla (slide shows) de
gráficas y textos.
Multimedia se ha vuelto muy popular en la capacitación. Los sobre cargas de
aviación aprender a manejar situaciones de terrorismo internacional y seguridad a
través de la simulación. Los mecánicos aprendes a reparar motores, los vendedores
aprenden acerca de las líneas de productos y ofrecen a sus clientes programas de
capacitación. Los pilotos de combate practican ejercicios de asalto antes de
arriesgarse a una situación real.
Multimedia se ha vuelto muy común en la oficina. La Flex Can de Video Labs, un
aditamento económico para agregar una cámara de video y un micrófono estéreo.
Este equipo de captura de imagen puede utilizarse para construir bases de datos de
identificación de empleados. A medida que las compañías se actualizan en
multimedia, y el costo de instalación y el costo de capacidad de multimedia
disminuye, se desarrollan más aplicaciones dentro de las mismas empresa y por
terceros para hacer que los negocios se administren más fácil y efectivamente.
1.3.2. Multimedia En Las Escuelas:
Las escuelas sin quizás los lugares donde más se necesita multimedia. Multimedia
causará cambios radicales en el proceso de enseñanza en la próximas décadas, en
particular cuando los estudiantes inteligentes descubran que pueden ir más allá de
los límites de los métodos de enseñanza tradicionales. Proporciona a los médicos
más de cien casos y da a los cardiólogos, radiólogos, estudiantes de medicina y
otras personas interesadas, la oportunidad de profundizar en nuevas técnicas
clínicas de imágenes de percusión cardíaca nuclear.
Los discos láser traen actualmente la mayoría de los trabajos de multimedia al
salón de clases.
MULTIMEDIA Y TARJETERIA
153
Los discos láser traen actualmente la mayoría de los trabajos de multimedia al
salón de clases, en 1994 están disponibles más de 2.500 títulos educativos para
diferentes grados escolares, la mayoría dirigidos a la enseñanza de las ciencias
básicas y ciencias sociales. El uso de discos láser será muy probablemente
sustituido por CD - ROM y después, cuando aquellas lleguen a ser parte de la
Infraestructura Nacional de Información (NII), multimedia llegará por medio de
fibra óptica y red.
1.3.3. Multimedia En El Hogar:
Finalmente, la mayoría de los proyectos de multimedia llegarán a los hogares a
través de los televisores o monitores con facilidades interactivas, ya sea en
televisores a color tradicionales o en los nuevos televisores de alta definición, la
multimedia en estos televisores probablemente llegará sobre una base pago - por uso a través de la autopista de datos.
Actualmente, sin embargo, los consumidores caseros de multimedia poseen una
computadora con una unidad de CD-ROM, o un reproductor que se conecta a la
televisión, muchos hogares ya tienen aparatos de videojuego Nintendo, Sega o
Atari conectados a su televisor; los nuevos equipos de videojuegos incluyen
unidades de CD-ROM y proporcionan mayores capacidades de multimedia. La
convergencia entre la multimedia basada en computadoras y los medios de
diversión y juego descritos como "dispárenles", es cada vez mayor. Sólo Nintendo
ha vendido más de cien millones de aparatos de videojuegos en el mundo y más de
750 millones de juegos.
La casa de futuro será muy diferente cuando los costos de los aparatos y
televisores para multimedia se vuelvan accesible al mercado masivo, y la conexión
a la autopista de datos más accesible. Cuando el número de hogares multimedia
crezca de miles a millones, se requerirá de una vasta selección de títulos y material
para satisfacer a este mercado y, también, se ganarán enormes cantidades de
dinero produciendo y distribuyendo esos productos.
1.3.4. Multimedia En Lugares Públicos:
En hoteles, estaciones de trenes, centros comerciales, museos y tiendas multimedia
estará disponible en terminales independientes o quioscos para proporcionar
información y ayuda. Estas instalaciones reducen la demanda tradicional de
personal y puestos de información, agregan valor y pueden trabajar las 24 horas,
aun a medianoche, cuando la ayuda humana está fuera de servicio.
MULTIMEDIA Y TARJETERIA
154
Los quioscos de los hoteles listan los restaurantes cercanos, mapas de ciudad,
programación de vuelos y proporcionan servicios al cliente, como pedir la cuenta
del hotel. A menudo se conectan impresoras para que los usuarios puedan obtener
una copia impresa de la información. Los quioscos de museos se utilizan ni sólo
para que a los visitantes a través de las exposiciones, sino también dar más
profundidad a cada exhibición, permitiendo a los visitantes revisar información
detallada específica de cada vitrina.
El poder de multimedia en lugares públicos es parte de la experiencia de muchos
miles de años: los cantos místicos de los monjes, cantores y chamanes
acompañados por potentes estímulos visuales, iconos en relieve y persuasivos
textos han sido conocidos para producir respuestas efectivas.
1.3.5. Realidad Virtual:
En multimedia, donde la tecnología y la invención creativa convergen, se encuentra
la realidad virtual, o VR (Virtual Realy). Los lentes cascos, guantes especiales y
extrañas interfaces humanas intentan colocarlo dentro de una experiencia parecida
a la vida misma.
La realidad virtual requiere de grandes recursos de computación para ser realista.
En ella, su ciberespacio está hecho de miles de objetos geométricos dibujados en
un espacio tridimensional: entre más objetos y más puntos describan los objetos,
mayor será la resolución y su visión será más realista. A medida que se mueve,
cada movimiento o acción requiere que la computadora recalcule su posición,
ángulo, tamaño y forma de todos los objetos que conforman su visión, y muchos
cientos de cálculos deben hacerse a una velocidad de 30 veces por segundo para
que parezca fluida.
La mayoría de los actuales programas de diseño asistidos por computadora (CAD)
ofrecen capacidades de tercera dimensión; muchos incluso proporcionan facilidades
para crear recorridos en formato de película digital.
Recientemente se han construido videojuegos públicos especializados para ofrecer
experiencias de vuelo y combate de realidad virtual por cierta tarifa. Del Virtual
World Entertainment en Walnut CreeK, California, y Chicago, Illinois, por ejemplo,
Battle Tech es un encuentro en video interactivo de diez minutos con robots
hostiles.
MULTIMEDIA Y TARJETERIA
155
La realidad virtual es una extensión de multimedia que utiliza los elementos básicos
de ésta década, como imágenes, sonido y animación. Puesto que requiere de
retroalimentación por medio de cables conectados a una persona, la realidad virtual
es tal vez multimedia interactiva en su máxima expresión.
2. Equipo Multimedia.
2.1. La Plataforma PC De Multimedia.
La computadora MPC (multimedia PC) no es una unidad de equipo en sí misma,
sino más bien un estándar que incluye las especificaciones mínimas para hacer de
una computadora basada en microprocesadores Intel en una computadora
multimedia. De hecho existe dos estándares MPC:
Nivel 1: Para una estación de trabajo mínima consiste en un procesador 386SX, al
menos 2 MB de RAM, un disco duro de 30 MB, una unidad de CD-ROM, video VGA
(16 colores), una tarjeta de audio de 8 bits, bocinas o audífonos y Windows de
Microsoft con el paquete de extensiones de multimedia. Esta configuración no es
suficiente para desarrollarla y apenas es suficiente para presentarla.
Nivel 2: Es más realista y se anunció en 1993. La siguiente especificación define la
funcionabilidad mínima de un sistema para cumplir con este nivel.
2.1.1. Especificación Multimedia PC Nivel 2.
Las especificaciones funcionales para la plataforma MPC de nivel 2 son:
especificaciones de equipo
CPU. Requerimiento mínimo: Microprocesador 486SX a 25 MHz (o compatible).
RAM. Requerimiento mínimo: 4 MB de RAM (se recomienda 8 MB).
Requerimientos de almacenamiento magnético: Unidad de disco flexible de 3.5
pulgadas de alta densidad (1.44 MB). Disco duro de 160 MB o más.
Requerimientos de almacenamiento óptico: Unidad de CD-ROM capaz de mantener
una velocidad de transferencia de 300 Kbps. No debe utilizar más del 40% de
ancho de banda del CPU cuando mantenga una velocidad de transferencia de 150
Kbps. Debe permitir sesiones múltiples. Incluirá un controlador MSCDEX 2.2 o
equivalente para implementar un API (interface para desarrollo de aplicaciones)
MULTIMEDIA Y TARJETERIA
156
extendida para audio. Se sugiere que el requerimiento y recomendación de
utilización de la CPU se logre leyendo bloques de una tamaño menor de 16 K y con
un tiempo de anticipación (lead time) que no sea mayor que el necesario para
cargar el buffer del CD-ROM con la lectura de bloque de datos.
Requerimientos de audio: Unidad de CD-ROM con salidas CD-DA (Read Book) y
control de volumen. Convertidor digital a analógico (Digital to Analog Converter,
DAC) con: muestreo lineal PCM; DMA o FIFO con transferencia por búffer y con
interrupción cuando el buffer esté vacío. Convertidor analógico a digital (Analog to
digital
Converter, ADC)
con:
muestreo lineal
PCM, entrada
de
micrófono.
Sintetizador interno con capacidades para voces múltiples, timbres múltiples, notas
de seis melodías simultáneas más dos notas de percusión también simultáneas.
Capacidades de mezcla interna para combinar señales de tres fuentes (se
recomiendan cuatro) y enviar la salida como señal estéreo a nivel de audio en el
panel trasero.
Requerimientos de video: Monitor de color con resolución de 640x480 con 65.536
colores (64 K). La meta de desempeño recomendada para los adaptadores VGA es
que sean capaces de transferir bloques de 1, 4 y 8 bits por pixel DIB (mapa de bits
independientes del dispositivo).
Requerimientos de entrada del usuario: Un teclado estándar tipo IBM de 101 teclas
con conector DIN, o uno que ofrezca la misma funcionalidad empleando
combinaciones de teclas. Un ratón de dos botones con conector serial o al bus y
que quede al menos un puerto de comunicación libre.
Requerimientos de entrada y salida (E/S): Puerto serial asíncrono estándar de 9 0
25 agujas (pins), programable hasta 9600 baudios y con un canal de interrupción
conmutable. Puerto paralelo bidireccional estándar de 25 agujas con capacidad de
interrupción, un puerto MIDI con posibilidades In (entrada), Out (salida) y Thru (a
través); debe soportar interrupciones para entrada y transferencia FIFO, Puerto
para palanca de juegos digital o analógica estilo IBM.
software de sistema:
Debe ofrecer compatibilidad binaria con Windows 3.0, y las extensiones multimedia
o con Windows 3.1, mucho mejor si es Windows 95.
configuración mínima de un paquete de actualización.
MULTIMEDIA Y TARJETERIA
157
Para obtener el nivel 2 de multimedia PC, un paquete de actualización requiere los
siguientes elementos y componentes:
Almacenamiento óptico: Unidad de CD-ROM de doble velocidad con salida CD-DA,
compatible con el formato XA y que permita sesiones múltiples.
Audio: DAC de 16 bits, ADC de 16 bits, sintetizador de música, mezclador de audio
analógico integrado.
E/S: Puerto MIDI E/S y puerto para palanca de juegos.
El software de sistema en un paquete de actualización es opcional.
2.2. equipo periférico.
2.2.1. CONEXIONES.
INTERFACE DE SISTEMAS PARA COMPUTADORAS PEQUEÑAS scsi.
Cada tarjeta soporta hasta siete dispositivos periféricos externos, como discos
duros, unidades de CD-ROM, unidades de cinta, impresoras, digitalizadores,
unidades de cartucho recargables y unidades magnéticos - ópticas.
Cuando un dispositivo SCSI se conecta a la tarjeta de interface en una PC, se
integra al sistema como otra letra de unidad. De este modo, puede tener unidades
de disco flexible configuradas como unidades A: y B:, un disco duro como unidad C:
y dispositivos externos basados en SCSI como unidades D:, E:, F:, etc. Aunque la
mitad de disco interna C: normalmente se conecta a una tarjeta controladora del
disco duro en la PC, también puede ser un dispositivo SCSI conectado a una tarjeta
SCSI. Programas como Corel SCSI de Corel permiten mejorar la flexibilidad de una
PC basada en el SCSI proporcionado controladores que le permiten trabajar con
cientos de dispositivos de equipo de diferentes proveedores.
iNTERFACE DE CONTROL DE MEDIOS (mci).
Como se muestra en la Figura 2.1, Windows proporciona a la interface de control de
medios (Media Control Interface, MCI) un método de software unificado, manejado
por órdenes para comunicarse con dispositivos periféricos de multimedia. Utilizando
los controladores apropiados (normalmente suministrados por el fabricante del
dispositivo), puede manejar el dispositivo con cadenas simples de órdenes o
códigos enviados al MCI.
MULTIMEDIA Y TARJETERIA
158
La Tabla 2.1 lista los tipos de dispositivos soportados por Windows MCI. Las
aplicaciones con lenguajes de guión (script), como Visual Basic y ToolBook, puede
programarse con facilidad para enviar los comandos MCI a estos dispositivos.
Los dispositivos multimedia y controladores son manejados por el archivo
SYSTEM.INI de Windows, en las secciones [mci] y [drivers] de ese archivo. Leyendo
el archivo de texto SYSTEM.INI al empezar, Windows cuáles dispositivos de
MULTIMEDIA Y TARJETERIA
159
multimedia están presentes en su sistema; esta información es crítica. Cuando
usted instala programas de multimedia en Windows, el programa de instalación
escribe los renglones apropiados de datos en el archivo SYSTEM.INI. Las entradas
típicas de este archivo pueden verse como estas:
2.2.2. Dispositivos De Memoria Y Almacenamiento.
En un ambiente PC multimedia (MPC), el desarrollo de multimedia también puede
consumir una gran cantidad de memoria; puede necesitar abrir al mismo tiempo
varios archivos grandes de gráficos y audio, así como un sistema de desarrollo para
facilitar el proceso de copia o pegado y probarlo en su programa de desarrollo.
Discos Flexibles Y Discos Duros.
Los discos flexibles y discos duros son dispositivos de almacenamiento masivo para
datos binarios, datos que pueden leerse fácilmente en una computadora. Los discos
duros pueden contener mucha más información que los flexibles y operan a
mayores tasas de transferencias de datos.
La mayoría de los discos flexibles utilizados para distribución de software son los de
alta densidad (HD) 1.44 MB de 3.5 pulgadas, aunque es frecuente que los
MULTIMEDIA Y TARJETERIA
160
proveedores de programas incluyen dos juegos de discos, uno de 1.44 MB de 3.5
pulgadas y otro de 1.2 MB de 5.25 pulgadas en un mismo paquete.
Los discos duros son los dispositivos más comunes de almacenamiento masivo que
se utilizan en las computadoras. Un disco duro es realmente una pila de platos de
metal duro cubiertos con material magnético sensible, con una serie de cabezas
grabadoras o sensores que flotan arriba de la superficie a una distancia del tamaño
de
un
cabello
y
que
se
mantiene
girando
a
velocidad,
magnetizando
o
desmangnetizando algunos lugares de las pistas formateadas. Los discos duros van
desde 20 MB (20.000.000 de bytes) a más de tres gigabytes (3.000.000.000 de
bytes) de capacidad de almacenamiento. Para desarrollar multimedia, usted
necesita un disco duro de gran capacidad.
Unidades De Cd-Rom.
Las unidades de disco compacto de memoria de sólo lectura (CD-ROM) se han
convertido en parte integral del desarrollo de las estaciones de trabajo de
multimedia y son un vehículo de distribución importante para proyectos grandes
producidos en masa. Una amplia variedad de utilidades desarrollo, fondos gráficos,
stocks de fotografías y sonidos, aplicaciones, juegos, textos de consulta y software
educativo están disponibles sólo por este medio.
La unidades reproductoras de CD-ROM han sido tradicionalmente muy lentas para
accesar y transmitir datos pero los nuevos desarrollos han llevado a duplicar,
triplicar y cuadruplicar las velocidades de la unidades diseñadas específicamente
para uso en computadoras.
Grabadoras Cd-Rom.
Con una grabadora especial de discos compactos puede hacer sus propios CDs
utilizando discos ópticos vírgenes CD grabables (CD-recordable) y escribirlos en la
mayoría de los formatos de CD-ROM y CD-Audio. Los proveedores de estas
máquinas son Sony, Philips, Ricoh, Kodak, JVC, Yamaha y Pinnacle. Existen
programas como TOPIX de Optical Media Inc., que le permiten organizar archivos
en sus disco duro en una estructura virtual, después los escribe en CD en ese
orden. Los discos CD-ROM están hechos de manera diferente que los CDs normales,
pero pueden utilizarse en cualquier reproductor de CD-ROM o CD-Audio. Están
disponibles en capacidades de "63 minutos" o de "74 minutos", para el primero eso
significa cerca de 560 MB y para el segundo cerca de 650 MB. Estos CDs de escriba
una
vez
(write-once)
hacen
archivos
excelentes
de
alta
capacidad
y
los
MULTIMEDIA Y TARJETERIA
161
desarrolladores de multimedia los utilizan ampliamente para la etapa anterior a la
creación del disco modelo, o master, y para pruebas de proyectos y títulos CDROM. Una vez que se escriben los datos, esa parte del disco no puede ser
sobrescrita o modificada.
Reproductores De Videodisco.
Los reproductores de videodiscos (comerciales, no de calidad de productos de
consumo) pueden utilizarse en combinación con la computadora para una
espléndida distribución de aplicaciones de multimedia.
Para diseñar un videodisco especial que opere en tres niveles diferentes:
Nivel 1: Todo el código que permite al usuario interactuar se graba en un canal de
información del mismo videodisco. Cuando se distribuye la aplicación en nivel 1,
todo lo que se necesita un usuario final es un reproductor de videodisco y un
monitor; no necesita una computadora. La interacción programada con el
videodisco es administrada utilizando la unidad de control remoto del reproductor
de videodisco.
Nivel 2: El código del proyecto se carga a la memoria RAM integrada del
reproductor del videodisco por medio de un cable de interface. Su código
permanece a menudo en la memoria RAM estática del reproductor, incluso cuando
el reproductor se apaga. La computadora se utiliza solamente para carga los
programas que controlan al reproductor de videodisco. Se requiere un alto nivel de
experiencia en programación para desarrollar un proyecto como éste.
Nivel 3: La computadora brinda control directa e inmediatamente del reproductor
por medio de una cable de interface RS-232. El nivel 3 se utiliza comúnmente para
desarrollar multimedia; permite el rango más amplio de alternativas para diseño de
interface e interacción del usuario. Se debe conectar la computadora para ejecutar
o desarrollar un proyecto.
2.2.3. Dispositivos De Entrada.
Teclados.
Los teclados proporcionan varias respuestas táctiles (desde firme hasta blanda) y
tienen varias disposiciones, dependiendo de su computadora y el modelo del
teclado. La mayoría proporciona el teclado QWERTY, el más popular, grandes teclas
MULTIMEDIA Y TARJETERIA
162
etiquetadas con letra romana y puntos en relieve en la teclas F, J y 5 para que los
programas de procesamiento numérico puedan utilizar teclas y las cercanas para
emular una calculadora. Para los usuarios que pasan mucho tiempo utilizando
números y haciendo tareas de contabilidad, un teclado numérico es parte esencial
del teclado. Las teclas de funciones permiten a los usuarios ejecutar operaciones
especiales o macros con sólo oprimir una tecla.
En las PCs, los teclados se conectan a los circuitos de la tarjeta madre. La mayoría
de los teclados en las PCs son del tipo 101 (que brinda 101 teclas), aunque están
disponibles varios estilos con más o menos teclas especiales.
Ratones.
Una ratón es una herramienta estándar para interactuar con una interface gráfica
de usuario (graphical user interface, GUI). Aunque el ambiente Windows acepta la
entrada del teclado en lugar de las acciones de apuntar y hacer click del ratón, los
proyectos de multimedia deben diseñarse para utilizar con una ratón a una pantalla
sensible al tacto.
De las diversas tecnologías utilizadas para generar localizaciones del cursor e
información de órdenes, la más común es el ratón con bola giratoria. Se utiliza una
bola de acero pesada, cubierta de goma, metida dentro de una caja de plástico.
Dentro de la caja hay dos ruedas dentadas que se friccionan contra la bola de acero
y que se mueven según se gire la bola a través de la superficie plana. Estas ruedas
son las que informan a los circuitos integrados del ratón los cambios de posición.
Los botones del ratón son otra forma de entrada para el usuario, como en el
proceso de señalamiento y doble click para abrir un documento, o en la operación
de hacer click y arrastrar, en la que el botón del ratón se mantiene oprimido para
arrastrar un objeto o para seleccionar una opción en el menú desplegable.
Bolas Giratorias.
Son similares a los ratones, excepto que el cursor se mueve utilizando una o más
dedos para hacer rodar la bola. Las bolas giratorias no necesitan una superficie
plana. Esto es importante en ambientes reducidos y para computadoras portátiles
de baterías. Las bolas giratorias tienen al menos dos botones: uno para que el
usuario haga click o doble click, y otro para oprimir y mantenerlo así para
seleccionar menús y arrastrar objetos.
MULTIMEDIA Y TARJETERIA
163
Pantallas Sensibles Al Tacto.
Son monitores que generalmente tienen una cubierta texturizada a través de toda
la superficie de vidrio. Esta cubierta es sensible a la presión y registra el lugar
donde el dedo del usuario toca la pantalla. El sistema TouchMate mide la presión
aplicada, dirección del movimiento y su desviación cuando lo oprime con un dedo;
así, el sistema determina cuánta presión se aplicó y dónde, y si ese lugar no tiene
recubrimiento. Otras pantallas sensibles al tacto utilizan haces invisibles de luz
infrarroja que atraviesan al frente del monitor para calcular dónde oprimió. Oprimir
dos veces en la pantalla en una sucesión rápida simula la acción del doble click de
una ratón; tocarla y deslizar el dedo, sin levantarlo, a otro lugar, simula un ratón
haciendo click y arrastrándose. Algunas veces se simula un teclado utilizando una
representación sobre pantalla para que los usuarios puedan introducir nombres,
números y otro texto oprimiendo.
Tablas De Gráficos.
Los dispositivos de entrada de superficie plana se conectan a la computadora de la
misma forma que un ratón o la bola giratoria. Se utiliza una pluma especial que se
presiona contra la superficie sensible de la tabla para mover el cursor. Las tablas
gráficas brindan una gran control al editar finalmente los elementos gráficos
detallados, siendo ésta una característica muy útil para artistas gráficos y
diseñadores de interface. También pueden emplearse como dispositivos de entrada
para usuarios finales: usted diseña una gráfica impresa, la coloca sobre la superficie
de la tabla y permite a los usuarios que trabajen con una pluma directamente sobre
la superficie de entrada. En el plano de un piso, por ejemplo, los visitantes pueden
dibujar una ruta a través de los pasillos y salas que deseen ver y después recibirán
una lista impresa de lo más relevante de la ruta elegida.
Digitalizadores.
Un digitalizador o explorador puede ser una cama plana o de mano; los más
comunes son los de cama plana con escalas de grises y color que brindan una
resolución de 300 o 600 puntos por pulgada. Los digitalizadores de manos pueden
ser útiles para digitalizar pequeñas imágenes y columnas de texto, pero pueden ser
inadecuados para desarrollar multimedia.
Dese cuenta que las imágenes, sin importar que dispositivos emplee requiere de
una enorme cantidad de espacio de almacenamiento en su disco duro.
MULTIMEDIA Y TARJETERIA
164
La digitalización le permite hacer imágenes electrónicas limpias de trabajos gráficos
ya existentes, como fotografías, anuncios, dibujos a lápiz y caricaturas; y puede
ahorrar varias horas al incorporar arte gráfico de terceros en su aplicación.
Permiten utilizar reconocimiento óptico de caracteres (optical character recognition,
OCR), tales como OmniPage de Caere, para convertir material impreso en archivos
de texto ASCII en sus computadores.
Dispositivos De Reconocimiento Óptico De Caracteres.
Los lectores de código de barra son probablemente los más reconocidos en el
reconocimiento óptico de caracteres que se utilizan hoy en día, sobre todo en
comercios, tiendas y otros lugares de punto de venta. Los lectores de código de
barra emplean caracteres numéricos del Código Universal de Productos (Universal
Products Code) que son impresos en un patrón de barras negras paralelas en la
etiquetas de la mercancía utilizando celdas fotográficas y rayos láser.
Un desarrollador de multimedia puede emplear una terminal OCR debido a que esta
herramienta no sólo reconoce caracteres impresos sino también los escritos a
mano.
Unidades De Control Remoto De Rayos Infrarrojos.
Una unidad de control remoto de rayos infrarrojos le permite al usuario interactuar
con su proyecto mientras se mueve. Estos dispositivos de control remoto funcionan
como ratones o bolas giratorias, excepto que utilizan luz infrarroja para dirigir el
cursor. Un ratón remoto funciona bien en una conferencia o informe en un
auditorio, cuando el conferencista necesita moverse por el recinto.
Sistema De Reconocimiento De Voz.
Facilitan la interacción sin necesidad de utilizar las manos. Estos sistemas tiene un
diodo
unidireccional
especial,
micrófono
de
cancelación
de
ruido,
que
automáticamente filtra los ruidos de fondo. La mayoría de los sistemas actuales de
reconocimiento de voz pueden activas órdenes del menú como Guardar, Abrir,
Abandonar e Imprimir; se puede entrenar al sistema para reconocer órdenes más
específicas para sus aplicaciones.
Cámaras Digitales.
MULTIMEDIA Y TARJETERIA
165
La cámara XAPSHOT SV, por ejemplo puede grabar hasta 50 imágenes (campos de
video de 300 líneas) en un disco flexible reutilizable de 2 pulgadas. Las imágenes
puede reproducirse directamente desde la cámara en cualquier televisor estándar o
por medio de un digitalizador para llevarlas a una computadora. El software
controla las funciones de captura y ajuste de imágenes además de la grabación del
digitalizador. Una vez que se graba la imagen en el ambiente de la computadora,
puede ser fácilmente exportada a varias aplicaciones, incorporarla a sistemas de
autoedición, utilizarla para mejorar una base de datos o agregarla como imagen
gráfica a una presentación multimedia.
2.2.4. Equipo De Salida.
Dispositivos De Audio.
Los computadores personales no proporcionan audio de calidad multimedia hasta
que se les instala una tarjeta de sonido. Las computadoras MPC están configuradas
para sonido desde que se ensamblan. Existen varios equipos de actualización que
incluyen tarjetas de sonido y unidades de CD-ROM. WaveEdit es un sistema sencillo
de producción y edición de sonido MPC; viene con un equipo de desarrollo de
multimedia de Microsoft y brinda características suficientes de grabación y edición.
Las computadoras IBM PS/2 tiene cuatro niveles de grabación de audio y capacidad
de reproducción: voz, música, estéreo y música de calidad. La grabación y la
edición se manejan en el ambiente de desarrollo de Conexión Audio-Visual (Audio
Visual Connection, AVC) de IBM y emplean adaptadores de Captura/Reproducción
M-Audio de IBM y otras tarjetas de sonido compatibles con microcanal. Si usted ha
instalado un sistema operativo Windows en su computadora, puede también utilizar
el programa Interface de Control de Medios (MCI) que tiene capacidades de captura
y reproducción.
Amplificadores y Bocinas (Cornetas).
Las bocinas con amplificadores integrados o agregados a un amplificador externo
son importantes cuando presente un proyecto a un gran auditorio o en un lugar
ruidoso. El sistema de bocinas amplificadas de tres piezas Altee Leasing, por
ejemplo están diseñado para presentaciones multimedia y es pequeño y portátil.
Incluye su propio circuito de procesamiento de señales digitales (Digital Signal
Processing, DSP) para efectos de salas de concierto, tiene un mezclador para dos
entradas (se puede mezclar la señal digital de la computadora y la salida del
MULTIMEDIA Y TARJETERIA
166
reproductor de audio de la unidad CD-ROM) y utiliza un subaltavoz para sonidos
graves sensibles a 35 Hz.
Monitores.
Los desarrolladores de multimedia a menudo conectan más de un monitor a sus
computadoras, utilizando tarjetas de gráficos. Varios sistemas de desarrollo le
permiten trabajar con varias ventanas abiertas al mismo tiempo, para que pueda
dedicar un monitor para visualizar el trabajo que esté creando o diseñando,
mientras ejecuta varias tareas de edición en ventanas en otros monitores.
Es importante desarrollar su aplicación en monitores del mismo tamaño y
resolución que aquellos que utilizará para su distribución. Se puede utilizar una
gran variedad de monitores tanto para desarrollo como para distribuciones.
El número máximo de colores que puede desplegar en su monitor depende de la
tarjeta de gráficos o de la cantidad de video RAM (VRAM) instalada en la
computadora. En las PCs los monitores son básicamente de 8 bits (256 colores),
pero con facilidad puede mejorarse con tarjetas de 16 bits (más de 32.000 colores),
o tarjetas de 24 bits (millones de colores). Por supuesto, mientras más colores
despliegue, más lento será el desempeño del sistema. También están disponibles
tarjetas aceleradoras para presentación de videos.
Dispositivos De Video.
Con la tarjeta de digitalización de video instalada en su computadora, usted
desplegar una imagen de televisión en su monitor. Algunas tarjetas incluyen una
facilidad para tomar cuadros para capturar la imagen y convertirla en mapas de bits
a color, que pueden guardarse como archivos PIC o TIF. y después utilizarse como
un gráfico o fondo.
Las presentaciones de video en cualquier plataforma de computadoras requieren de
un manejo de una enorme cantidad de datos. Cuando se utiliza con reproductora de
videodisco, que dan control preciso sobre imágenes que se estén viendo, las
tarjetas de video le permiten colocar una imagen en una ventana en el monitor de
su computadora; no se necesita una segunda pantalla de televisión dedicada al
video. Las tarjetas de video normalmente vienen con excelentes programas de
efectos especiales.
MULTIMEDIA Y TARJETERIA
167
Hay varias tarjetas de video disponibles hoy en día. La mayoría soportan varios
tamaños de video en una ventana, identificación de la fuente de video, ajuste de
secuencias de reproducción o segmentos, efectos especiales, tomas un cuadro y
hacer cine digital. En Windows, las tarjetas de video sobrepuesto son controladas a
través de la Interface de Control de Medios (MCI).
Proyectores.
Si muestra su material a más observadores de los que pueden juntarse alrededor
de un monitor de computadora, necesita proyectarlo en una gran pantalla e incluso
en una pared pintada de blanco. están disponibles los proyectores de tubos de
rayos catódicos (Cathode-ray Tube, CRT); pantallas de cristal líquido (LCD)
agregadas a un panel de proyector de acetatos; proyectores LCD autónomos y
proyectores de lámpara para presumir su trabajo en la superficie de pantallas
grandes.
Los proyectores CRT han estado disponibles por largo tiempo, son los televisores
originales de "pantalla gigante". Utilizan tres tubos de proyección separada y lentes
(rojo, verde y azul); estos tres canales de colores de luz deben converger con
precisión en la pantalla. El ajuste, foco y alineación son importantes para obtener
una imágen clara y nítida. Los proyectores CRT son compatibles con la salida de la
mayoría de las computadoras, así como de las televisiones.
Los paneles LCD son dispositivos que caben en un portafolio. el panel se coloca en
la superficie de un proyector estándar de acetatos como los que existen en la
mayoría de las escuelas, centros de conferencias y centro de reuniones. Mientras el
proyector de acetatos hace el trabajo de proyección, el panel se conecta a la
computadora y da la imágen, en miles de colores y con tecnología de matriz activa,
a velocidades que admiten video de movimiento a tiempo real y animación. Debido
a que los paneles LCD son pequeños, es habitual que se empleen en presentaciones
en viajes, conectándolas a una computadora portátil (laptop) y utilizando un
proyector de acetatos.
Los paneles más completos de proyección LCD tienen una lámpara de proyección y
lentes, y no necesitan un proyector de acetatos adicional. Por lo común producen
una imágen más brillante y definida que el modelo de panel simple, pero son más
grandes y no caben en un portafolio.
2.2.5. Dispositivos De Comunicación.
MULTIMEDIA Y TARJETERIA
168
Módems.
Pueden
conectarse
externamente
a
su
computadora
al
puerto
serial,
o
internamente como una tarjeta separada. En general, los módems internos poseen
capacidad de fax.
La velocidad de los módems medida en baudios, es la características más
importante. Debido a que los archivos de multimedia contienen gráficos, recursos
de audio, muestras de video, necesitan mover muchos datos en el menor tiempo
posible. Los estándares de hoy dictan al menos un módems de 9600 bps.
Transmitir a 2400 bps un archivo de 350 MB podría llevar hasta 45 minutos, pero a
9600 bps, podría hacerse entre 6 o 7 minutos. La mayoría de los módems cumplen
los estándares CCITT V.32 o V.42 que brindan algoritmos de comprensión de datos
cuando se comunican con otros similarmente equipados. La compresión ahorra
tiempo de transmisión y dinero significativos, en especial a largas distancias.
Las líneas telefónicas de cobre y el equipo de conmutación en centrales de
compañías telefónicas pueden manejar señales analógicas de hasta 28.000 bps en
líneas limpias. Los fabricantes de módems que proporcionan mayores velocidades
de transmisión de datos cuentan con algoritmos de compresión basados en el
equipo para comprimir datos antes de enviarlo, descomprimiéndolos al llegar a su
destino.
Redes.
Las redes de área locales (local area netwoks, LAN) y las redes de área ancha (wide
area netwoks, WAN) pueden conectarse a los miembros de un grupo de trabajo. En
una LAN las estaciones de trabajo se localizan en general a un corta distancia una
de otra. Las WAN son sistemas de comunicación que cubren grandes distancias,
están configuradas especialmente y son administrada por grandes corporaciones e
instituciones para su uso propio o para compartir con otros usuarios.
3. Componentes De Multimedia
3.1. Herramientas De Pintura Y Dibujo.
Las herramientas de pintura y dibujo son quizá los componentes más importantes
de su juego de herramientas, ya que de todos los elementos de multimedia, el
impacto gráfico tendrá probablemente la mayor influencia en el usuario final.
MULTIMEDIA Y TARJETERIA
169
El software de pintura se utiliza para producir excelentes imágenes de mapas de
bits; el de dibujo para trazar con mayor facilidad en papel utilizando post script o
cualquier sistema que realce las paginas como Quick-Draw en las Macintosh. Los
paquetes de dibujo incluyen poderosas y costosas tecnologías de diseño asistido
por computadora, el cual se utiliza cada vez más para proporcionar gráficos en
tercera dimensión.
3.2. Herramientas Cad Y De Dibujo 3-D.
Debido a que consisten de vectores gráficos dibujados, las imágenes de diseño
asistido por computadora (CAD , computer -aided design ) pueden manipularse
matemáticamente en la computadora con facilidad. Pueden redimensionarse girarse
y, si existe información de profundidad, darles vuelta en el espacio, con condiciones
de luz exactamente simuladas y sombras correctamente dibujadas, todo a base de
cálculos numéricos de la computadora .
Con el software CAD, usted puede observar como un dibujo pasa de 2-D a 3-D y
pararse frente a él y verlo desde cualquier ángulo para enjuiciar su diseño.
3.3. Herramientas De Edición De Imagen
La aplicación de edición de imagen son herramientas especializadas y poderosas
para realzar y retocar las imágenes de mapas de bits existentes, usualmente
designadas como separaciones de color para impresiones. Estos programas son
también
indispensables
para
presentar
las
imágenes
utilizadas
en
las
presentaciones de multimedia. Cada vez más, las modernas versiones de estos
programas brindan algunas características y herramientas de los programas de
pintura y dibujo y pueden utilizarse para crear imágenes desde cero, así como para
digitalizarlas desde digitalizadores, tomadores de cuadros de video, cámaras
digitales, archivos de reportes de arte, o archivos de gráficos creados con un
paquete de pintura o de dibujo.
3.3.1. Programas OCR.
A menudo tendrá material impreso y otros textos para incorporar en su proyecto,
pero no están en forma electrónica. Con el software de reconocimiento óptico de
caracteres (OCR) , un digitalizador de cama plana y su computadora puede ahorrar
muchas horas de trabajo de mecanografía de palabras impresas y obtener un
trabajo más rápido y preciso que el que le puede brindar una sala llena de
mecanógrafas.
MULTIMEDIA Y TARJETERIA
170
El software OCR convierte los caracteres de mapas de bits en texto ASCII
reconocible electrónicamente.
3.4. Programas De Edición De Sonido.
Las herramientas de edición de sonido para sonidos digitalizados y MIDI le permiten
ver la música mientras la escucha. Al dibujar una representación de un sonido en
pequeños incrementos, ya sea en partitura o en forma de onda, puede cortar,
copiar, pegar y, de otra manera,
editar segmentos con gran precisión, algo imposible de hacer en tiempo real (que
es como se ejecuta la música).
3.5. Animación, Video Y Películas Digitales
Las animaciones y las películas de video digital son secuencias de escenas de
gráficos de mapas de bits (cuadros) reproducidas con gran rapidez. Pero las
animaciones pueden hacerse también con el sistema de desarrollo cambiado
rápidamente la localización de objetos o duendes para generar apariencia de
movimiento
3.5.1. Formatos de Video .
Los formatos y sistemas para almacenar y reproducir video digitalizado desde y
hacia archivos que están disponibles con QuickTime y AVI. Ambos sistemas
dependen de algoritmos especiales que controlan la cantidad de información por
cuadro de video que se envía ala pantalla, así como la velocidad a la cual se
despliegan los nuevos cuadros.
3.5.2. Quick Time
QuickTime es la arquitectura basada en software de Apple para la integración
perfecta del sonido, animación y video . Permite crear, comprimir, ver, controlar y
editar archivos de películas QuickTime de una manera congruente a través de todas
las aplicaciones.
QuickTime incluye cuatro elementos, descritos en los siguientes párrafos, que
trabajan al unísono:
Una extensión del sistema de software.
MULTIMEDIA Y TARJETERIA
171
Un conjunto de algoritmos de comprensión.
Un formato estándar de archivo de película.
Una interface con el usuario estándar para definir la captura dinámica de datos, la
comprensión y características de reproducción.
3.5.3. Microsoft Video para Windows.
Audio Video Interleaved (AVI) es un software desarrollado por Microsoft que
reproduce video interfoliado de movimiento a tiempo real y secuencias de audio en
Windows, sin equipo especializado , a cerca de 15 cuadros por segundo en una
pequeña ventana. Con el equipo de aceleración se pueden ejecutar secuencias de
video AVI a 30 cuadros por segundo.
Como QuickTime de Apple, AVI brinda las siguientes características:
Reproducción desde disco duro o CD-ROM.
Reproducción en computadoras con memoria limitada; los datos se envían desde el
disco duro o reproductor de CD-ROM sin utilizar grandes cantidades de memoria.
Carga y reproducción rápidas, ya que solamente unos pocos cuadros de video y una
porción de audio son accesadas al mismo tiempo.
La comprensión de video mejora la calidad de sus secuencias de video y reduce su
tamaño.
3.6. Accesorios Útiles.
Ningún equipo de herramientas de multimedia está completo sin unas pocas
utilerías indispensables para desarrollar algunas tareas, peculiares pero repetidas
con frecuencia. Éstos son los accesorios confortables y bien empleados que hacen
más fácil su vida con la computadora.
Tanto en Macintosh como en Windows, un capturador de pantallas es esencial. Ya
que las imágenes de mapa de bits son tan comunes en multimedia, es importante
tener una herramienta para capturar una parte o toda la pantalla completa para
poder importarla a su sistema de desarrollo o copiarla en una aplicación de edición
de imagen.
MULTIMEDIA Y TARJETERIA
172
Los convertidores de formato también son indispensables para los proyectos en los
que el material original proviene de Macintosh, PCs, estaciones de trabajo UNIX,
Amigas o incluso macrocomputadoras. Esto es particularmente importante con
archivos de imagen, ya que existen muchos formatos de imagen pues existen
muchos formatos y esquemas de comprensión.
3.7. Vincular Elementos De Multimedia.
Los elementos de multimedia (y otra información digitalizada) a menudo se tratan
como objetos discretos que tienen características particulares o propiedades. Con
los objetos descritos en un formato común empleando sistemas de programación
orientada a objetos (OOPs), texto, imágenes de mapas de bits , sonidos y
secuencias de video pueden vincularse dinámicamente entre varias aplicaciones y
documentos , e incluso incrustarse en ellos
3.8. Procesadores De Palabras.
Muchos documentos de los procesadores de palabras finalmente se imprimen en
papel, pero también muchos se distribuyen en un servidor, disco flexible o por
correo electrónico. Si otras personas vieran su documento en la computadora,
considere la posibilidad de agregar notas de voces multimedia, fotografías o
ilustraciones animadas para subrayar un punto o aclarar algo difícil de expresar con
palabras.
3.8.1. Microsoft Word para Windows
Word para Windows permite insertar varios objetos en su texto, incluyendo
fotografías, sonidos, arte de recortes y películas. Las películas AVI también pueden
reproducirse como objetos de enlace e incrustación (OLE) desde su documento en
Word. Con Word para Windows también puede crear vínculos con otros programas
empleando intercambio dinámico de datos (DDE).
3.8.2. Wordperfect para Windows
Empleando DDE, Wordperfect para Windows puede compartir datos con otros
programas compatibles que emplean vínculos DDE. Si los datos de otro programa
vinculado cambian automáticamente se actualizan en el documento Wordperfect
vinculado con aquel .Un editor de gráficos facilita la inclusión de gráficos a sus
documentos. Usted puede visualizar, recuperar, crear, modificar y dimensionar
figuras y guardarlas importarlas a su documento. Wordperfect para Windows
MULTIMEDIA Y TARJETERIA
173
trabaja con los formatos gráficos DOS comunes, así como con metaarchivos y
mapas de bits.
4. Las Herramientas de Desarrollo de Multimedia
Estas herramientas brindan el marco esencial para organizar y editar los elementos
de su proyecto multimedia, incluyendo gráficos, sonido, animaciones y secuencia de
vídeo. Las herramientas de desarrollo se utilizan para diseñar interactividad y las
interfaces del usuario, a fin de presentar su proyecto en pantalla y combinar los
diferentes elementos multimedia en un solo proyecto cohesionado.
Loa programas de desarrollo de multimedia brindan un ambiente integrado para
unir el contenido y las funciones de su proyecto. Incluyen en general las habilidades
para crear, editar e importar tipos específicos de datos; incorporar datos de las
secuencias de reproducción u hoja de señalizaciones, y proporcionar un método
estructurado, o lenguaje, para responder a las acciones del usuario. Con el software
de desarrollo de multimedia usted puede hacer:
Producciones de vídeo
Animaciones
Discos de demostración (demos) y guías interactivas
Presentaciones
Capacitación interactivas
Simulaciones y visualizaciones técnicas
4.1 Tipos de Herramientas
Las herramientas (o sistemas) de desarrollo se organizan en grupos,
basándose en la presentación que utilizan para dar secuencia y
organizar
Herramientas
Herramientas
Herramientas
los
elementos
basadas
basadas
basadas
en
en
en
iconos
de
multimedia:
tarjetas
o
controlados
tiempo
Herramientas basadas en tarjetas o paginas.
y
de
paginas
por
eventos
presentación
MULTIMEDIA Y TARJETERIA
174
En estos sistemas de desarrollo los elementos se organizan como paginas de un
libro o como una pila de tarjetas. Estas herramientas son adecuadas cuando gran
parte del contenido consiste en elementos que pueden verse individualmente, como
las paginas de un libro o como las tarjetas de un fichero. Los sistemas de desarrollo
basados en tarjetas o paginas permiten reproducir elementos de sonido, ejecutar
animaciones y reproducir vídeo digital.
Herramientas basadas en iconos.
En estos sistemas de desarrollo los elementos de multimedia y las señales de
interacción (eventos) se organizan como objetos en un marco estructural, o
proceso. Las herramientas basadas iconos controladas por eventos simplifican la
organización de su proyecto y siempre despliegan diagramas de flujos de
actividades junto con vías de bifurcación.
Herramientas basadas en tiempo.
En estos sistemas de desarrollo los elementos y eventos se organizan a lo largo de
una línea de tiempo con resoluciones tan altas como un treintavo de segundo. Las
herramientas basadas en tiempos son adecuadas cuando tiene un mensaje con un
principio y un fin.
4.1.1. La Herramienta Correcta Para El Trabajo:
Cada proyecto de multimedia que tome en sus manos tendrá su propia estructura
interna y propósito y requerirá de diferentes características y funciones. En el mejor
de los casos, debe estar preparado para seleccionar la herramienta que mas se
adapte al trabajo; en el peor, debe saber que herramienta al menos puede "hacer
el trabajo". los desarrolladores mejoraran continuamente las herramientas de
desarrollo, agregando nuevas características y mejorando el desempeño con ciclo
de actualización de seis meses a un año.
4.1.2. Características De Edición.
Los elementos de multimedia - imágenes, animaciones, texto, sonidos MIDI y
digitales y secuencia de vídeo - necesitan crearse, editarse y convertirse a formatos
de archivos estándares y de aplicaciones especializadas, las herramientas de
edición para estos elementos, particularmente el texto y las imágenes fijas, se
incluyen a menudo en los sistemas de desarrollo. En la medida que su sistema de
desarrollo tenga mas editores, requerirá menos herramientas especializadas.
MULTIMEDIA Y TARJETERIA
175
4.1.3. Características De Organización.
El proceso de organización, diseño y producción de multimedia involucra la creación
de guiones y diagramas de flujo. Algunas herramientas de desarrollo proporcionan
un sistema de diagrama de flujo visuales o una facilidad de vista panorámica para
ilustrar la estructura de su proyecto a nivel general. Los guiones o diagramas de
navegación también pueden ayudar a organizar su proyecto. Puesto que el diseño
de la interactividad y el flujo de navegación de su proyecto requieren a menudo de
gran esfuerzo de planeación y programación.
4.1.4. Características De Programación.
Los sistemas de desarrollo de multimedia ofrecen uno ó mas de los siguientes
enfoques, que se explican en los párrafos siguientes:
Programación visual con señalamientos e iconos
Programación con lenguaje de guiones
Programación con herramientas tradicionales, como Basic ó C
Herramientas de desarrollo de documentos
La programación visual con iconos es quizás el proceso de desarrollo y fácil. Si
quiere reproducir un sonido o colocar una imagen en su proyecto, simplemente
arrastre el icono del elemento en la lista de reproducción; o arrástrala hacia afuera
si quiere eliminarla. Las herramientas de desarrollo visuales, como Action !,
Authorware, IconAuthor y Passport Producer, son particularmente útiles para
secciones de diapositivas y presentaciones.
Las herramientas de desarrollo que ofrecen un lenguaje de guiones para el control
de navegación y para permitir acciones al usuario - como HyperCard, SuperCard,
Director de Macropedia y ToolBook - son mas poderosas. En la medida en que el
lenguaje de guiones incluyan mas ordenes y funciones, el sistema de desarrollo
será más poderoso.
4.1.5. Características De Interactividad.
La interactividad da poder a los usuarios finales de sus proyectos, permitiéndole
controlar el contenido y flujo de información. Las herramientas de desarrollo deben
brindar uno o mas niveles de interactividad:
MULTIMEDIA Y TARJETERIA
176
Bifurcación simple permite ir a otra sección de la producción de multimedia
Bifurcación condicional permite avanzar basándose en los resultados de una
decisión SI-ENTONCES (IF THEN) o en eventos
Un lenguaje estructurado que permite lógica de programación complejas, como los
SI-ENTONCES (IF THEN), subrutinas, seguimiento de eventos y envío de mensaje
entre los objetivos y elementos.
4.1.6. Características De Ajustes Del Desempeño.
Los proyectos complejos de multimedia requieren una sincronización de eventos
exacta. Es difícil lograr la sincronización porque existe una gran variación en el
desempeño de las diferentes computadoras que se necesitan para el desarrollo y
distribución de multimedia. Algunas herramientas de desarrollo permiten que
asocies la velocidad de reproducción de su producción a la velocidad de una
plataforma especifica, pero otras no dan tanta facilidad de control sobre el
desempeño en varios sistemas. En muchos casos usted necesitara usar el lenguaje
de guiones de la propia herramientas de desarrollo, o las facilidades especializadas
de programación para especificar el tiempo y la secuencia en los sistemas con
diferentes procesadores (mas rápido o mas lento). Asegúrese que su sistema de
desarrollo permita programación precisa de los eventos.
4.1.7. Capacidad De Reproducción.
En esta parte su sistema de desarrollo debe permitir construir un segmento o parte
de su proyecto y luego probarlo de inmediato, como si el usuario lo estuviera
utilizando
realmente.
Usted
ocupará
gran
parte
del
tiempo
avanzando
y
retrocediendo en los procesos de construcción y prueba, mientras refina y adecua el
contenido y la programación de su proyecto.
4.1.8. Características De Distribución.
La distribución de su proyecto requiere construir una versión ejecutable utilizando
el software de desarrollo de multimedia. Una versión de ejecución permite que su
proyecto pueda reproducirse sin que necesite una instalación completa de software
de desarrollo y todas sus herramientas.
4.2. Herramientas De Desarrollo Basadas En Tarjetas Y Paginas
MULTIMEDIA Y TARJETERIA
177
Los sistemas de desarrollo basado en tarjetas y paginas proporcionan una
presentación sencilla y fácil de entender para organizar los elementos de
multimedia. Puesto que las imágenes gráficas únicamente forman la columna
vertebral de un proyecto, tanto para menú de navegación como para contenidos,
muchos desarrolladores arreglan sus imágenes en secuencia lógicas o grupos
similares a paginas y capítulos de libros, o tarjetas de un fichero. Entonces las
rutinas de navegación se convierten en una simple instrucción para ir a una pagina
o tarjeta que contiene las imágenes y texto adecuado, los sonidos asociados,
animaciones y secuencia de vídeo.
Los sistemas de desarrollo basados en paginas están orientados a objeto: los
objetos son botones, campo de texto, objetos gráfico, fondo, paginas o tarjetas y
aun el proyecto mismo. Las características de los objetos se definen con
propiedades ( resaltado, negritas, rojos, escondidos, activo, bloqueado y así
sucesivamente ). Cada objeto puede contener un guión de programación - casi
siempre una propiedad de ese objeto se activa cuando ocurre un evento ( como
click de un ratón ) relacionado con el.
La mayoría de los sistemas de desarrollo basados en paginas brindan la facilidad de
vincular objetos a páginas o tarjetas ( programando el modo automático órdenes
de movimientos y navegación haciendo click el ratón).
4.2.1. ToolBook ( Windows ).
Ofrece una interfaces gráfica Windows y un ambiente de programación orientada a
objeto para construir proyectos, o libros, a fin de presentar gráficamente
información, como dibujos, imágenes digitalizadas a color, textos, sonido y
animaciones. Un libro se divide en paginas y se guarda como un archivo en DOS.
las páginas pueden contener campo de texto, botones y objetos gráficos, dibujados
o de mapas de bits. Usted construye un libro con páginas las vincula; la
programación OpenScript de ToolBook ejecuta las tareas interactivas y de
navegación y define como se comportan los objetos.
Las palabras claves (hot words) en los campos de texto puede tener asociado un
guión; estas palabras brindan la características de hipertexto en ToolBook para
conectar información relacionada que aparece en diferentes lugares del libro, o en
otros libros que pueda abrirse. Hacer click sobre una palabra clave provoca que esa
palabra reaccione como un botón.
MULTIMEDIA Y TARJETERIA
178
ToolBook tiene dos niveles de trabajo: el lector y el autor. Usted ejecuta los
guiones a nivel de lector. A nivel autor usted utiliza órdenes para crear nuevos
libros, crear y modificar objetivo en las paginas y escribir guiones. ToolBook ofrece
opciones de vinculación para botones y palabras claves, de forma que usted pueda
crear guiones de navegación identificando la página a la que debe ir.
4.2.2. Visual BASIC ( Windows).
Es sistema de programación para Windows que se utiliza a menudo para organizar
y presentar los elementos multimedia. Esta compuesto por controles (objetos ) que
residen en formas ( o ventanas ).Utiliza un código de lenguaje con sintaxis similar a
BÁSICA o a GW-BASIC. El programa es controlado por eventos, esto es, códigos
que se asocian a objeta y que no se ejecutan hasta que son llamados a responder a
los eventos creados por el usuario o el sistema, tal como hacer click con el ratón o
al terminarse el tiempo de espera del sistema. Los controles se utilizan para crear
la interfaces de usuario de una aplicación, incluyendo botones de orden, de opción,
de verificación, cuadro de listas, cuadros combinados, cuadros de textos, barra de
desplazamiento, marcos, cuadros de selección de archivos y directorios, relojes y
barras de menú.
Una vez terminado su proyecto en Visual Basic puede convertirlo en archivo .EXE
para que se ejecute como archivo de Windows independiente.
4.3. Herramientas De Desarrollo Basadas En Iconos.
Las herramientas basadas en iconos y controladas por eventos brindan un enfoque
de programación visual para organizar y presentar multimedia. Primero, usted debe
construir una estructura o diagrama de flujo de los eventos, tareas y decisiones,
arrastrando los iconos adecuados de la biblioteca. Estos iconos pueden incluir
selección de menú, imágenes gráficas, sonido y cálculos. El diagrama de flujo
representa gráficamente la lógica del proyecto. Cuando se construye la estructura
usted puede agregar su contenido: texto, gráficos, animación, sonido y películas de
vídeo. Luego, para darle el toque final a su proyecto edite su estructura lógica
volviendo a arreglar y haciendo ajustes a los iconos y a sus propiedades.
4.3.1. Authorware Professional ( Windows ).
Los autores sin antecedentes técnicos pueden crear aplicaciones avanzadas sin
ningún guiones. Colocando iconos en línea de flujo usted podrá crear secuencias de
eventos y actividades, incluyendo toma de decisiones e interacciones del usuario.
MULTIMEDIA Y TARJETERIA
179
Authorware es útil como herramienta de diseño para crear secuencia de escenas
porque permite cambiar las secuencias, agregar opciones y reestructurar las
interacciones simplemente arrastrando y soltando el iconos. Puede imprimir sus
mapas de navegación o diagrama de flujo, un índice del proyecto con notas con y
sin los iconos asociados, las ventanas de diseño y presentación y una tabla de
referencia cruzada de las variables.
Authorware ofrece más de doscientas variables del sistemas y funciones para la
captura, manipulación y despliegue de datos, y para controlar la operación de su
proyecto. Las variables incluyen elementos de interacción, decisión, tiempo, vídeo,
gráficos, generales, archivo y de usuarios; las funciones incluyen tareas del tipo de
matemáticas, cadenas, manejo de tiempo, vídeo, gráficos, generales, de archivo y
del usuario.
Authorware proporciona vínculos para funciones de usuario externas escritas como
DLLs en Windows.
4.4. Herramienta De Desarrollo Basadas En Tiempo.
Las herramientas de desarrollo de multimedia basada en tiempo son las mas
comunes. Cada una utiliza su propio y único enfoque e interfaces de usuario para
administrar eventos en el tiempo. Muchas emplean una línea de tiempo visual para
dar secuencia a los eventos de una presentación de multimedia, a menudo
desplegando capas con elementos en varios medios o en eventos a lo largo de una
escala de incrementos tan precisos que alcanzan una el orden de un treintavo de
segundo. Otras herramientas arreglan largas secuencias de marcos gráficos y
agregan el componente de tiempo ajustando la duración de reproducción de cada
marco.
4.4.1. Action ! ( Windows ).
Esta herramienta crea presentaciones multimedia en pantalla con movimiento,
sonido, textos, gráficos, animación y QuickTime. Action ! es para conferencistas y
vendedores; para quienes hacen presentaciones de negocios y educadores que
necesitan crear presentaciones en pantalla de gran impacto de una forma rápida.
Es un paquete de presentación multimedia; utiliza una línea de tiempo para
organizar los elementos.
4.4.2. MediaBlitz ! ( Windows ).
MULTIMEDIA Y TARJETERIA
180
Es un conjunto de aplicaciones que, juntas, dan a los usuarios novatos una forma
de editar, dar secuencia y reproducir presentaciones multimedia. MediaBlitz ! de
asymetrix se creo con el sistema multimedia ToolBook de asymitrix . Como
resultado, los desarrolladores pueden incluir fácilmente secuencias MediaBlitz ! en
las aplicaciones ToolBook. MediaBlitz ! se compone de tres herramientas:
ClipMaker, ScoreMaker, ScorePlayer.
ClipMaker permite a los usuarios crear elementos multimedia o secuencia que
pueden ser nombradas y grabadas en archivo.
ScoreMaker representa gráficamente una línea de tiempo sobre la cual usted puede
ensamblar las secuencias arrastrándolas con el ratón. Este permite alinear los
elementos para sincronizar la reproducción en resolución con un segundo con
elementos
que
puedan
ser
simultáneos
secuenciales
y
que
se
pueden
superimponer.
ScorePlayer puede grabar esa reproducción como un archivo de texto que describe
la secuencia de los eventos, también ayuda a la ejecución de una secuencia
seleccionada.
4.4.3. Producer (Windows ).
Passport Producer es una herramienta de ensamblaje e integración de medios
basada en tiempo, diseñada para crear presentaciones sincronizadas. Usted puede
combinar casi cualquier tipo de datos - incluyendo imágenes fijas, animación,
películas QuickTime, audio digital, MIDI y audio de CDs.
4.5. Herramientas De Plataforma Cruzadas.
Authorware, Director y Producer son aplicaciones que se ejecutan tanto en las
plataformas de Windows como en Macintosh, y sus archivos son archivo para
ejecutable en cualquier ambiente, o compatible a nivel binario. Un archivo
compatible a nivel binario puede ser leído y utilizado por Macintosh, PCs o en red.
Otras aplicaciones, como PACo Producer, Windows player y ConverIt ! están
creadas para diseñar archivo ejecutable en ambas plataformas. El convertidor
funciones en la dirección Macintosh a Windows.
Usted encontrara dos obstáculos en cuanto a transporte de proyectos multimedia a
través de las plataformas; estos obstáculos tienen que ver con los diferentes
MULTIMEDIA Y TARJETERIA
181
esquemas que la computadora Macintosh y Windows para administrar textos y
colores.
Si su proyecto solo utiliza imágenes de mapas de bits y sonido, el caso del texto es
discutible, pero si utiliza textos en campos o requiere que el usuario introduzca
texto, enfrentaran problemas de tamaño y forma.
Cada plataforma también utiliza sus propios caracteres; algunos caracteres
especiales pueden ser distintos en otras plataforma. Macintosh no siempre
corresponde a los de otras plataformas, por lo que usted requerirá de un carácter
sustituto.
Estas son algunas sugerencias importantes para trabajar en aplicaciones de
plataformas cruzadas:
Para textos dentro de cuadros, centre el texto dejando bastante espacio, o margen,
para evitar un posible salto de línea en la otra plataforma.
Evite los estilos de contorno y sombreado en Macintosh. No se soporta actualmente
en Windows y puede ser sustituido de modo automático por negritas.
Cuando la apariencia de una fuente de tamaño grande en importante, conviértalas
en mapas de bits, capturando la pantalla antes de convertirla.
Si utiliza fuente True Type o ATM de Adobe, deben estar instaladas y disponibles en
ambas plataformas.
TARJETERIA
LA TARJETA DE VIDEO
De manera resumida, es lo que transmite al monitor la información gráfica que
debe presentar en la pantalla. Con algo más de detalle, realiza dos operaciones:

Interpreta los datos que le llegan del procesador, ordenándolos y calculando
para poder presentarlos en la pantalla en forma de un rectángulo más o
menos grande compuesto de puntos individuales de diferentes colores
(pixels).

Coge la salida de datos digitales resultante de ese proceso y la transforma
en una señal analógica que pueda entender el monitor.
MULTIMEDIA Y TARJETERIA
182
Estos dos procesos suelen ser realizados por uno o más chips: el microprocesador
gráfico (el cerebro de la tarjeta gráfica) y el conversor analógico-digital o RAMDAC,
aunque en ocasiones existen chips accesorios para otras funciones o bien se
realizan todas por un único chip.
El microprocesador puede ser muy potente y avanzado, tanto o más que el propio
micro del ordenador; por eso algunos tienen hasta nombre propio: Virge, Rage Pro,
Voodoo, TNT2... Incluso los hay con arquitecturas de 256 bits, el cuádruple que los
Pentium.
Pequeña historia de las tarjetas de vídeo
En el principio, los ordenadores eran ciegos; todas las entradas y salidas de datos
se realizaban mediante tarjetas de datos perforadas, o mediante el teclado y
primitivas impresoras. Un buen día, alguien pensó que era mucho más cómodo
acoplar una especie de televisor al ordenador para observar la evolución del
proceso y los datos, y surgieron los monitores, que debían recibir su información de
cierto hardware especializado: la tarjeta de vídeo.
MDA
En los primeros ordenadores, los gráficos brillaban... por su ausencia. Las primeras
tarjetas de vídeo presentaban sólo texto monocromo, generalmente en un
agradable tono ámbar o verde fosforito que dejaba los ojos hechos polvo en
cuestión de minutos. De ahí que se las denominase MDA, Monochrome Display
Adapter.
CGA
Luego, con la llegada de los primeros PCs, surgió una tarjeta de vídeo capaz de
presentar gráficos: la CGA (Computer Graphics Array, dispositivo gráfico para
ordenadores). Tan apasionante invento era capaz de presentar gráficos de varias
maneras:
CGA
Resolución (horizontal x vertical)
Colores
320x200
4
640x200
2 (monocromo)
Lo cual, aunque parezca increíble, resultó toda una revolución. Aparecieron
multitud de juegos que aprovechaban al máximo tan exiguas posibilidades, además
de programas más serios, y los gráficos se instalaron para siempre en el PC.
MULTIMEDIA Y TARJETERIA
183
Hércules
Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su
ventaja, poder trabajar con gráficos a 720x348 puntos de resolución, algo
alucinante para la época; su desventaja, que no ofrecía color. Es por esta carencia
por la que no se extendió más, porque jugar sin color no es lo mismo, y el mundo
PC avanza de la mano de los diseñadores de juegos (y va muy en serio).
EGA
Otro inventito exitoso de IBM. Una tarjeta capaz de:
EGA
Resolución (horizontal x vertical)
Colores
320x200
16
640x200
16
640x350
16
Estas cifras hacían ya posible que los entornos gráficos se extendieran al mundo PC
(los Apple llevaban años con ello), y aparecieron el GEM, el Windows y otros
muchos. Sobre las posibilidades de las pantallas EGA, una curiosidad: los drivers
EGA de Windows 3.1 funcionan sobre Windows 95, y resulta curioso (y sumamente
incómodo, la verdad) ver dicha combinación...
VGA
El estándar, la pantalla de uso obligado desde hace ya 10 años. Tiene multitud de
modos de vídeo posibles, aunque el más común es el de 640x480 puntos con 256
colores, conocido generalmente como "VGA estándar" o "resolución VGA".
SVGA, XGA y superiores
El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del
mismo, siempre centrándose en aumentar la resolución y/o el número de colores
disponibles. Entre ellos estaban:
Modo de vídeo
Máxima resolución y máximo número de colores
SVGA
800x600 y 256 colores
XGA
1024x768 y 65.536 colores
IBM 8514/A
1024x768 y 256 colores (no admite 800x600)
De cualquier manera, la frontera entre unos estándares y otros es sumamente
confusa, puesto que la mayoría de las tarjetas son compatibles con más de un
MULTIMEDIA Y TARJETERIA
184
estándar, o con algunos de sus modos. Además, algunas tarjetas ofrecen modos
adicionales al añadir más memoria de vídeo.
La resolución y el número de colores
En el contexto que nos ocupa, la resolución es el número de puntos que es capaz
de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en
vertical. Así, "800x600" significa que la imagen está formada por 600 rectas
horizontales de 800 puntos cada una. Para que nos hagamos una idea, un televisor
(de cualquier tamaño) tiene una resolución equivalente de 800x625 puntos.
En cuanto al número de colores, resulta casi evidente: los que puede presentar a
la vez por pantalla la tarjeta. Así, aunque las tarjetas EGA sólo representan a la vez
16 colores, los eligen de una paleta (sí, como las de pintor) de 64 colores.
La combinación de estos dos parámetros se denomina modo de vídeo; están
estrechamente relacionados: a mayor resolución, menor número de colores
representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que
las liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no
la memoria general o RAM). Algunas combinaciones posibles son:
Memoria de vídeo
Máxima resolución (en 2D)
Máximo número de colores
512 Kb
1024x768 a 16 colores
256 a 640x480 puntos
1 MB
1280x1024 a 16 colores
16,7 millones a 640x480
2 MB
1600x1200 a 256 colores
16,7 millones a 800x600
4 MB
1600x1200 a 65.536 colores
16,7 millones a 1024x768
Se han colocado los modos más comunes, ya que no todas las tarjetas admiten
todos los modos, aparte de que muchas no permiten ampliar la memoria de vídeo.
Para los curiosos, el cálculo de la memoria necesaria es: (Res. Vert.)x(Res.
Horiz.)x(Bits de color)/8.
Cabe destacar que el modo de vídeo elegido debe ser soportado por el
monitor, ya que si no éste podría dañarse gravemente (muy gravemente).
Esto depende de las características del mismo, en concreto de la Frecuencia
Horizontal, como se explica en el apartado dedicado al monitor.
Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos)
suelen necesitar bastante más memoria, en general unas 3 veces más; por ello,
jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir al
menos 4 MB de memoria de vídeo.
MULTIMEDIA Y TARJETERIA
185
La velocidad de refresco
El refresco, aparte de la Coca Cola, es el número de veces que se dibuja la pantalla
por segundo (como los fotogramas del cine); evidentemente, cuanto mayor sea
menos se nos cansará la vista y trabajaremos más cómodos y con menos
problemas visuales.
Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se
dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente
necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga
visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra
los ojos sufren muchísimo, y unos minutos bastan para empezar a sentir escozor o
incluso un pequeño dolor de cabeza.
Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste
en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las
pares, por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo
que cansa la vista sobremanera. Afortunadamente la técnica está en desuso, pero
en los monitores de 14" se ha usado hasta hace un par de años.
El motivo de tanto entrelazado y no entrelazado es que construir monitores que
soporten buenas velocidades de refresco a alta resolución es bastante caro, por lo
que la tarjeta de vídeo empleaba estos truquitos para ahorrar a costa de la vista del
usuario. Sin embargo, tampoco todas las tarjetas de vídeo pueden ofrecer cualquier
velocidad de refresco. Esto depende de dos parámetros:

La velocidad del RAMDAC, el conversor analógico digital. Se mide en MHz, y
debe ser lo mayor posible, preferiblemente superior a 200 MHz.

La velocidad de la memoria de vídeo, preferiblemente de algún tipo
avanzado como WRAM, SGRAM o SDRAM.
Memoria de vídeo
Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más
exista, más opciones tendremos); además, su tipo determina si conseguiremos
buenas velocidades de refresco de pantalla o no. Los tipos más comunes son:

DRAM:
en
las
tarjetas
más
antiguas,
ya
descatalogadas.
Malas
características; refrescos máximos entorno a 60 Hz.

EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad
media-baja. Muy variables refrescos dependiendo de la velocidad de la EDO,
entre 40 ns las peores y 25 ns las mejores.
MULTIMEDIA Y TARJETERIA

186
VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de
calidad, muy buenas características.

MDRAM: un tipo de memoria no muy común, pero de alta calidad.

SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas
prestaciones. La SGRAM es SDRAM especialmente adaptada para uso
gráfico, en teoría incluso un poco mas rápida.
Conectores: PCI, AGP...
La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o
ranura de expansión. Muchos tipos de ranuras de expansión se han creado
precisamente para satisfacer a la ingente cantidad de información que se transmite
cada segundo a la tarjeta gráfica.

ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto
llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente.
Usado hasta las primeras VGA "aceleradoras gráficas", aquellas que no
sólo representan la información sino que aceleran la velocidad del sistema al
liberar al microprocesador de parte de la tarea gráfica mediante diversas
optimizaciones.

VESA Local Bus: más que un slot un bus, un conector íntimamente unido al
microprocesador, lo que aumenta la velocidad de transmisión de datos. Una
solución barata usada en muchas placas 486, de buen rendimiento pero
tecnológicamente no muy avanzada.

PCI: el estándar para conexión de tarjetas gráficas (y otros múltiples
periféricos). Suficientemente veloz para las tarjetas actuales, si bien algo
estrecho para las 3D que se avecinan.

AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado
únicamente para tarjetas gráficas que transmitan cientos de MB/s de
información, típicamente las 3D. Presenta poca ganancia en prestaciones
frente a PCI, pero tiene la ventaja de que las tarjetas AGP pueden utilizar
memoria del sistema como memoria de vídeo (lo cual, sin embargo, penaliza
mucho el rendimiento).
En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la
eleva, lo que explica que algunas tarjetas PCI sean muchísimo más rápidas que
otras AGP más baratas o peor fabricadas.
MULTIMEDIA Y TARJETERIA
187
Adecuación al uso del ordenador
Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en
un monitor de 15" que para hacer CAD en uno de 21". Nótese que siempre hago
referencia al monitor con el que van a trabajar, porque una tarjeta muy buena no
puede demostrarlo en un mal monitor, ni a la inversa.
Las indicaciones son genéricas; para saber más sobre este tema, vaya al apartado
de tarjetas de vídeo en Qué componentes comprar para...

Ofimática: tarjetas en formato PCI o AGP, con microprocesadores buenos
en 2D, sin necesidades 3D específicas; capaces de 1024x768; con unos 2 ó
4 MB; y con buenos refrescos, entorno a 70 u 80 Hz. Un ejemplo típico "de
marca" es la Matrox G200, o bien cualquiera basada en el chip i740.

Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria
(entre 8 y 32 MB), generalmente de marca y preferiblemente AGP. Por
ejemplo, las tarjetas basadas en chips TNT2 o Voodoo3.

Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias
ultrarrápidas, capaces de llegar a 1600x1200 puntos a 70 Hz o más, con 4
MB o más. Cualquiera con un superchip, SGRAM/SDRAM y un RAMDAC de
225 MHz o más.
En general, actualmente el tema radica en saber si se necesita o no soporte 3D; la
aceleración 2D, es decir, la de Windows, ofimática, Internet, etc, hace mucho que
está más que conseguida; casi todas las tarjetas dan cifras espectaculares y casi
indistinguibles en cualquier test 2D.
LA TARJETA DE SONIDO
Un poco de historia
El PC (Ordenador Personal) no fue pensado en un principio para manejar sonido,
excepto por esa reminiscencia que en algunos ordenadores ya no se instala (o está
desconectada) llamada "altavoz interno" o "PC Speaker".
Ese pitido que oímos cuando arrancamos el ordenador ha sido durante muchos
años el único sonido que ha emitido el PC. En un principio, el altavoz servía para
comunicar errores al usuario, ya que la mayoría de veces, el ordenador debía
quedarse solo trabajando (los primeros ordenadores eran muy lentos, y los
usuarios tienen derecho a merendar).
Pero entró en escena el software que seguramente MÁS ha hecho evolucionar a los
ordenadores
desde
su
aparición:
los
videojuegos.
Probablemente
los
programadores pensaron: "¿No sería maravilloso que los muñequitos ésos
emitieran sonidos? ¿No sería aún más increíble una banda sonora?" Para quien
MULTIMEDIA Y TARJETERIA
188
jamás haya jugado a un juego con música o sonido por el altavoz
del PC, que pruebe este VIEJO juego, probablemente de los
primeros que se programaron para los compatibles. (Por cierto,
no tenemos ni idea de cómo se sale de él, como no sea con Ctrl+Alt+Supr...)
Si jugáis al "Alley Cat" comprobaréis que el sonido no es nada del otro mundo
(aunque he oído verdaderas MARAVILLAS MUSICALES en el altavoz del PC, cosas
que jamás hubiera creído). Sin embargo, un poco más tarde, en plena revolución
de la música digital (empezaban a popularizarse los instrumentos musicales
digitales) apareció en el mercado de los compatibles una tarjeta que lo revolucionó,
la tarjeta de sonido SoundBlaster.
Por fin era posible convertir sonido analógico a digital para guardarlo en nuestro PC,
y también convertir el sonido digital que hay en nuestro PC a analógico y poder
escucharlo
por
nuestros
altavoces.
Posteriormente
aparecieron
el
resto:
SoundBlaster PRO, SoundBlaster 16, Gravis, AWE 32, AWE 64, MAXI Sound... todas
más o menos compatibles con la superexitosa SoundBlaster original, que se
convirtió en un auténtico estándar.
ADC/DAC
Los ordenadores tenían (siguen teniendo) un "problema", sólo saben trabajar con
datos digitales (más concretamente binarios, 0s y 1s), por lo que cuando
conectamos unos altavoces a nuestra tarjeta de sonido, hay alguien que transforma
esos datos digitales en analógicos para que nuestro altavoz los entienda. De eso se
encarga el DAC (Conversor Digital-Analógico, ).
Y supongo que todo el mundo habrá deducido para qué sirve el ADC (Conversor
Analógico-Digital); efectivamente, cuando grabamos desde una fuente externa (por
ejemplo desde nuestro equipo musical), deberemos transformar esos datos
analógicos que llegan por el cable en muestras digitales que podamos almacenar en
nuestro disco duro.
Pero a alguien le puede ocurrir que necesite reproducir sonido, tratarlo al mismo
tiempo con una fuente externa y volver a grabarlo. O simplemente reproducir y
grabar al mismo tiempo. Esta característica se conoce como "fullduplex" y debe
estar presente en cualquier tarjeta de sonido medianamente decente (creo que
actualmente ya lo está en prácticamente todas). Para ello, los dos conversores
ADC-DAC deben trabajar de forma separada.
16 bits
Nada de 32, 64, 128 y 256 bits. Las tarjetas de sonido (excepto muy raras
excepciones profesionales) toman las muestras de sonido a 16 bits (aunque
MULTIMEDIA Y TARJETERIA
189
se llame SoundBlaster 128 PCI o MaxiSound 64). Esto ha llevado a engaño a
mas de uno (y de dos) al creer que su tarjeta de sonido trabajaba con más bits que
su propio procesador (pero se trata del numero de voces, que es otro tema
completamente distinto). Esos bits vienen a definir la posición del altavoz. ¿Qué
significa esto? Vamos a explicarlo.
Para emitir sonidos, los altavoces se mueven dando golpes. Estos golpes hacen que
el aire que nos rodea vibre, y nuestros oídos captan esas vibraciones y las
transforman en impulsos nerviosos que van a nuestro cerebro... (bueno, eso ya no
es cosa de los ordenadores). Pues bien, deberemos indicarle al altavoz dónde debe
"golpear". Para ello simplemente le enviaremos una posición (en este caso un
número). Pues bien, cuantas más posiciones podamos representar, mejor será el
sonido. Y cuantos más bits tengamos, más posiciones podremos representar
(sencillo ¿verdad?).
8 bits
256 posiciones
16 bits
65536 posiciones
La diferencia es apreciable. Y supongo que todo el mundo se puede hacer una idea
de qué sonará mejor...
¿Son necesarios más bits? En principio no; sin embargo, como en todo, cuando el
ADC no es excesivamente bueno, los últimos bits captados tienen información que
no es demasiado fidedigna. Esto significa que si podemos trabajar con un mayor
abanico de bits (20 o más), aunque perdamos calidad el sonido final seguirá siendo
igual de bueno.
44,1 KHz significa calidad de CD
Vamos a explicar esto. Las tarjetas de sonido simplemente transforman una señal
continua (el sonido es algo continuo, no va a t-r-o-z-o-s) en una discreta (aunque
no lo parezca). Explicamos la palabra "discreta": que sucede a ciertos intervalos de
tiempo.
Veamos un gráfico de ejemplo.
MULTIMEDIA Y TARJETERIA
190
En el dibujo apreciáis una línea continua, que representa un sonido. Sin embargo,
en realidad cuando la captamos con nuestra tarjeta de sonido no podemos capturar
TODA la onda, capturaremos simplemente una serie de puntos (los que están
marcados), un punto cada cierto tiempo, es decir, un muestreo de los datos
con una determinada frecuencia; la onda que nos quedará será del siguiente
estilo:
Os podéis imaginar que si en lugar de 44KHz utilizamos 22KHz, en realidad
capturaremos la mitad de posiciones:
El sonido se degrada rápidamente.
La conclusión de este ejercicio de dibujo a mano alzada es muy sencilla: cuanta
más resolución tengamos, mejor será la representación del sonido en nuestro
ordenador. Algunas tarjetas incorporan interpolación, mediante la que se suavizan
los picos y se puede volver a obtener una onda más parecida a la original,
mejorando, según los fabricantes, la calidad de sonido. Realmente, aún no conozco
a ninguna persona que haya sido capaz de distinguir entre los dos sonidos (con y
sin interpolación).
¿Y porqué exactamente 44’1KHz? Por el mismo motivo por el que el VHS emite 24
imágenes por segundo: si el ojo humano es capaz de reconocer como mucho unas
30 imágenes por segundo, sería un derroche de medios (y dinero) emitir 100
imágenes por segundo, por el simple hecho de que no notaríamos la diferencia. Del
mismo modo, el oído humano es capaz de reconocer unos 44.000 sonidos
MULTIMEDIA Y TARJETERIA
191
cada segundo (o sea, capta el sonido con esa frecuencia), con lo que la utilización
de un mayor muestreo no tiene ningún sentido (en principio).
Todas las tarjetas de sonido domésticas pueden trabajar con una resolución de
44’1KHz, y muchas incluso lo hacen a 48KHz. Las semi-profesionales trabajan en su
mayoría con esos 48KHz y algunas incluso con 50KHz. Las profesionales llegan
cerca de los 100KHz.
La utilización de este muestreo ampliado se debe al mismo motivo por el que
algunas tarjetas utilizan más de 16bits para cada muestra: si los datos de partida
no son suficientemente fieles o después nos vamos a dedicar a modificar el sonido,
perderemos calidad, así que cuanta más calidad tengamos en un principio, mejores
resultados obtendremos al final, es mejor trabajar con un margen de confianza.
MIDI, síntesis FM y tablas de ondas
El sonido digital siempre ha tenido diversos formatos (hasta llegar al mp3, el más
de moda actualmente). El sonido en formato digital tiene un problema, y es su
excesivo espacio para almacenar relativamente poca información. Se
pueden hacer los cálculos fácilmente: audio a 44,1KHz, con 16 bits y en estéreo,
nos da 172 Kb/segundo (10,3 MB por minuto, una auténtica barbaridad).
Este método de almacenar el audio digital "tal cual" es el utilizado en los ficheros
.wav o en los CD-Audio. Sin embargo, no resulta útil para los profesionales del
sector (sobre todo para los compositores); imaginad la cantidad de disco duro y,
sobre todo, memoria que son necesarios para trabajar a pleno rendimiento con el
audio digital. ¿Cuál es la posible solución? El formato MIDI (Musical Instrument
Data Interface)
Al contrario que el audio digital, el formato MIDI no es el sonido grabado, sino
principalmente las notas musicales que lo componen. Cualquier fichero MIDI
ocupará poquísimo espacio, debido a que tan solo es necesario almacenar las notas
que están sonando en cada momento. El formato MIDI nació para estandarizar el
comportamiento de los distintos instrumentos digitales, para que las mismas notas
sonaran "igual" en los distintos instrumentos. Hoy en día existen teclados MIDI (los
archiconocidos sintetizadores), pianos MIDI (como el que tengo en casa), violines
MIDI (Celtas Cortos tiene uno, así como The Corrs, que también lo utilizan), flautas
MIDI, baterías MIDI, e incluso gaitas MIDI (¿alguien ha escuchado alguna canción
de Hevia?).
Pues bien, en el caso del ordenador, alguien tendrá que encargarse de reproducir
las composiciones MIDI. Y por supuesto, la solución está en aprovechar nuestra
tarjeta de sonido. Como el formato MIDI no son más que notas, tendremos que
obtener los sonidos de algún sitio, y existen dos opciones.
MULTIMEDIA Y TARJETERIA
192
La síntesis FM es la más económica. Hasta el
momento, y desde hace mucho, ha sido la solución
más empleada. La síntesis FM no es más que un
pequeño procesador que se encarga de imitar el
sonido mediante el empleo de fórmulas matemáticas
trigonométricas (sí, no estoy bromeando). Y en cierto
modo, da mejores resultados de los esperables.
Por ejemplo: el sonido de un clásico instrumento de cuerda se representa en el
ordenador mediante una onda similar a la siguiente:
Se trata de una onda bastante regular, que fácilmente puede ser simulada por una
ecuación.
Todas las ecuaciones están basadas en senos y cosenos. Para quien no las conozca,
la ecuación del seno es la de la derecha, y la del coseno es idéntica pero desplazada
sobre el eje x pi/2 unidades.
Si construimos a partir de las ecuaciones anteriores una función (yo he construido
una arbitrariamente),
obtendremos una especie de onda que en cierta manera se parece a la que
tenemos digitalizada a partir de un instrumento real (más o menos, tampoco
demasiado ... a la próxima me esforzaré un poco más)
MULTIMEDIA Y TARJETERIA
193
Por supuesto, las ecuaciones y funciones que utiliza nuestra tarjeta de sonido son
mucho más complejas y las ondas mucho más parecidas, excepto en un caso, en el
de los instrumentos de percusión, con ondas mucho menos estables, como se
aprecia en el siguiente ejemplo:
La solución que aportan YA la mayoría de tarjetas domésticas (desde la
SoundBlaster AWE 32 y la Gravis UltraSound), es la inclusión de la síntesis por
Tabla de Ondas (WaveTable). Esto no es más que el tener los sonidos de los
instrumentos grabados (a partir de instrumentos reales) en una memoria
incluida en la propia tarjeta (ROM que normalmente se puede ampliar con RAM
para añadir nuevos y mejores sonidos) o utilizando la memoria del ordenador, en
MULTIMEDIA Y TARJETERIA
194
cuyo caso deberá tener conector PCI en lugar de ISA. Con esto conseguimos una
calidad MUCHO mayor en la reproducción de canciones MIDI.
Actualmente sólo la Crystal, SoundBlaster 16 y las compatibles Yamaha OPL3 de
2000 ptas. (así como algunas soluciones integradas en placas base y otras de
fabricante desconocido) funcionan sin tabla de ondas. Si queréis apreciar la
diferencia de sonido, los siguientes mp3 muestran la diferencia de reproducción de
un fichero MIDI entre una tarjeta de sonido Crystal Sound System y lo que cabria
esperar de una Yamaha XG.
Por cierto, si vuestro software de audio no entiende los archivos .mp3 (he incluso
aunque los entienda), os recomiendo que descarguéis la última versión del
excelente programa Winamp, que además soporta otros muchos tipos de archivo.
Tabla de ondas por software
¿Su tarjeta es de síntesis FM? No todo
está perdido, puesto que el segundo
mp3 también se graba con Crystal,
pero utilizando un sintetizador virtual
de Yamaha. Este sintetizador trabaja
como lo haría una tarjeta con tabla de
ondas
pero
procesador
utilizando
para
utilizar
nuestro
los
datos
(notas musicales y efectos a aplicar).
Puedes descargarlo de y probar su
funcionamiento
en
vuestro
propio
ordenador, para comparar la calidad de vuestra tarjeta de sonido. Por supuesto,
podremos usar nuestros juegos con música MIDI y apreciaremos un notable
aumento de calidad musical, directamente proporcional a la pérdida de velocidad de
las animaciones. Hay que tener en cuenta que estos sintetizadores virtuales tienen
el problema de consumir MUCHÍSIMOS recursos de CPU. Sin embargo podremos
hacernos una idea de si merece la pena adquirir una tarjeta de sonido que
incorpore tabla de ondas (aunque pocas tendrán la calidad de Yamaha en
instrumentos de percusión, son realmente increíbles).
Polifonía (voces)
La captura de pantalla anterior nos sirve para introducir este nuevo punto. ¿Porqué
se llamó SoundBlaster AWE 32? No fue por los bits con los que funcionaba, como ya
hemos dicho antes, sino por las 32 voces simultáneas (instrumentos) que era
MULTIMEDIA Y TARJETERIA
195
capaz de reproducir. (También pasa lo mismo con la SoundBlaster 64 y la 128, así
como con la MaxiSound 64).
Este concepto no es complicado. Con un cuarteto de Jazz se pueden interpretar
obras realmente excepcionales, eso sí, sólo con 4 instrumentos. Si el grupo
aumenta a 8 personas, podremos tener el doble de instrumentos y el sonido será
mucho mejor. En la actualidad podemos encontrar tarjetas de sonido con soporte
de 320 voces de la Diamond Monster Sound, pasando por las 256 voces de la
SoundBlaster Live!, las 128 de la SoundBlaster PCI 128, o las 64 de las Guillemot
ISIS o Home Studio Pro 64. Gracias al uso del conector PCI se han conseguido
tarjetas con muchas voces por poco dinero, ya que emplean la memoria del PC
para almacenarlos, pero el ordenador deberá ser potente para obtener un
rendimiento satisfactorio.
Os podéis hacer una idea de la calidad de la música que se puede obtener al
componer con tal número de voces. Eso sí, el número de voces será el número de
instrumentos MIDI que podremos reproducir en el mismo instante de tiempo. Si
reproducimos un CD o un .wav, el número de voces no nos influirá en la
calidad de reproducción. En este caso dejamos al MIDI a un lado, estaremos
hablando de música grabada en formato digital, y tendremos que referirnos a
canales.
DSP
Pues bien, tenemos un montón de posibles voces que podremos tratar. En las
soluciones más avanzadas tenemos posibilidades de hacer nuestros primeros
pinitos en la música.
Cuando tratamos con una de las pistas de sonido que tenemos grabada, por
ejemplo, tenemos (en muchos casos) la posibilidad de aplicarle efectos, como son
el "chorus" o la reverberación. Pero también simular sintetizadores de sonido,
realizar "fades" ...
Por supuesto, este proceso de modificación de una señal digital requiere potencia
de cálculo, pero normalmente se desea saber como afectara la aplicación de un
efecto en tiempo real. Es por ello que muchas soluciones, sobre todo a partir de la
gama media, incorporan un Procesador Digital de Señales (DSP: Digital Signal
Processor) para liberar de trabajo al microprocesador del PC; uno de los más
utilizados actualmente es el EMU10K1.
Canales, altavoces y la fiebre 3D
Podríamos explicar el concepto de canal o pista de forma sencilla como una pista de
sonido diferente para cada altavoz en la que estarán grabados los datos que debe
MULTIMEDIA Y TARJETERIA
196
reproducir, para que no le lleguen datos de otros altavoces. Así cada altavoz
reproducirá el sonido que le corresponde, logrando el deseado realismo.
Cuando apareció la entonces "revolucionaria" ADLIB, era capaz de reproducir el
sonido por 1 canal, o sea, hablamos de sonido monoaural en su sentido más
estricto. Cuando escuchamos el sonido estéreo, nos llega mediante 2 canales, el
izquierdo y el derecho, mejorando mucho el realismo del sonido.
Pero llegó un momento en que esto pareció ser poco, y se desató la fiebre 3D: ¿qué
hace el sonido situado delante de nosotros? ¿No sería mejor que nos rodeara? Pues
esto
van
a
intentar
reproducir
los
Dolby
Surround,
AC-3,
A3D,
THX,
DirectSound3D... Para producir sonido envolvente existen multitud de sistemas:
Algunas tarjetas de sonido dicen ser capaces de producir sonido 3D con tan sólo
2 altavoces (yo tengo una de esas, que vale 2500 ptas., podéis haceros una idea
de la realidad de la afirmación). Estos sistemas, más que sonido envolvente, crean
"sonido extraño", pues combinan los 2 canales del estéreo para provocar sensación
de profundidad en sonido (nunca sonido "envolvente").
MULTIMEDIA Y TARJETERIA
197
Últimamente, además de los 2 altavoces tradicionales, los vendedores ofrecen un
Subwoofer (también conocido como altavoz-enorme-que-no-sé-dónde-colocar).
Este altavoz se utiliza principalmente para la reproducción de los sonidos más
graves, pero seguiremos teniendo solamente 2 canales.
Otros utilizan 4 altavoces, en tarjetas de sonido cuadrofónicas. Éstas tienen 2
salidas estéreo, para 2 pares de altavoces (un total de 4). La calidad obtenida es
bastante buena, ya que, además de los 4 altavoces que hacen que percibamos el
sonido desde cualquier dirección, las tarjetas más modernas incorporan software
que permite la calibración de nuestra posición con respecto a los altavoces,
ajustando automáticamente el volumen para que el sonido se "centre" en nuestra
cabeza (aunque suene muy complicado, la verdad es que es de lo más sencillo: si
un altavoz está más lejos de nosotros que el otro y por los 2 emitimos el mismo
volumen, el sonido lo notaremos desplazado, el reto será ajustar el volumen de
cada altavoz para escuchar el sonido lo más centrado posible).
MULTIMEDIA Y TARJETERIA
198
Sistemas más avanzados, aportan al igual que ocurría con los sistemas de 2
altavoces, un subwoofer junto con los 4 altavoces, consiguiendo un mayor realismo
en el sonido envolvente. Ya existen diversas soluciones (como el Creative FPS
2000) que por un precio económico proporcionan sonido cuadrafónico con cuatro
altavoces y un subwoofer.
Especificaciones de sonido 3D
Ya hemos hablado un poco del sonido 3D, sin embargo tenemos pendiente el
responder la pregunta de cómo se consigue. Vamos a responderla: del mismo modo
que existen juegos con gráficos 3D, también pueden soportar sonido 3D (o
ambiental). Si un juego 3D debe estar programado con alguna librería gráfica 3D
(léase Glide, Direct 3D o OpenGL), también debe estarlo para soportar el sonido
ambiental, mediante el uso de alguna de los formatos existentes.
Los más conocidos son Direct Sound, Direct Sound 3D (a partir de DirectX 6),
Aureal A3D 1.0 o 2.0, Dolby Surround Prologic o Dolby Digital.
Cada uno tiene sus ventajas e inconvenientes. Direct Sound 3D es muy utilizado en
juegos en entornos Windows, por lo que su soporte es casi imprescindible para
poder disfrutar de los mejores títulos de última generación en todo su esplendor.
Aureal A3D ha sido una API propietaria que en un principio se utilizaba porque
Direct Sound no soportaba sonido ambiental todo lo bien que debería, sin embargo,
con el nuevos Direct Sound 3D, no debería ser necesario.
Mención aparte merecen las especificaciones Dolby Surround Prologic y Dolby
Digital, competencia directa del THX del archimillonario George Lucas. Con la
aparición del DVD se ha revolucionado el sector de entretenimiento.
Cuando en nuestro ordenador tengamos un reproductor DVD, podremos, en teoría,
disfrutar de los títulos de vídeo en ese formato. Pero si realmente queremos
disfrutar a fondo de ellos, serán necesarias 2 cosas. Primero, una tarjeta
decodificadora de MPEG2, porque con tan sólo nuestra CPU la calidad que
obtendremos no será la óptima; y por otro lado, un sistema de sonido que soporte
Dolby Digital, y en ello incluimos la tarjeta de sonido, que debe ofrecer ese soporte,
y los altavoces, que deben ser los necesarios.
Dolby Digital o el cine en casa
Directamente importado de los cines, así que podéis haceros una idea de la calidad.
El formato por excelencia del DVD es el Dolby Digital 5.1 o AC3. Este formato es
evolución directa del Dolby Surround Prologic, utiliza 6 pistas, por lo tanto serán
necesarios 6 altavoces: 1 central, 1 izquierdo y 1 derecho, 1 altavoz izquierdo y 1
MULTIMEDIA Y TARJETERIA
199
derecho para el sonido ambiente (detrás del espectador) y 1 subwoofer para realzar
los graves.
También será necesario un amplificador que soporte este formato de sonido,
además de nuestra tarjeta. Un buen ejemplo es el Creative Desktop Theater 5.1 en
conjunción con una SoundBlaster Live!.
Altavoces autistas y compañía
Últimamente se ha puesto de moda reducir costes al mínimo, como con los
Winmódems, que utilizaban la potencia de nuestro procesador para suplir varios
componentes que sencillamente no tienen. En el caso de los altavoces, se habla con
mucha facilidad de potencias de "60W, 120W, 200W..." musicales o PMPO, que en
realidad son de 5 a 20W reales; y por supuesto, unos altavoces buenos es
IMPOSIBLE que cuesten 3.000 ptas, como sabe cualquier aficionado al sonido.
MULTIMEDIA Y TARJETERIA
200
La última apuesta en el ahorro son los altavoces USB. En teoría parece una buena
idea, enviamos los datos digitales por el puerto USB y los altavoces se encargan de
reproducir el sonido. No hay complicaciones y la calidad de reproducción es
bastante elevada. Además todas esas soluciones (como la de Philips o Microsoft)
también llegan con un Subwoofer, por lo que su calidad de reproducción es
bastante elevada. Además, nos hemos ahorrado el dinero que cuesta una tarjeta de
sonido.
Como mayor contrapartida, su mejor ventaja: al no incluir ni necesitar tarjeta de
sonido, ¿alguien sabe cómo grabarlo? No podremos conectar un micrófono y
disfrutar de los divertidos programas de Karaoke. Aunque si lo suyo no es cantar
"Tengo un tractor amarillo" puede vivir sin esa opción. También hay que decir que
el precio no es uno de sus mayores fuertes, comparados con altavoces
convencionales de buena calidad, con soluciones de 2, 3 (2 + Subwoofer), 5 (4 +
Subwoofer) o 6 (Dolby Digital) altavoces.
También como altavoces convencionales (porque tenemos que conectarlos a una
tarjeta de sonido) podemos incluir a los monitores con altavoces incorporados, con
mucho estilo y una calidad de sonido aceptable (si no se es un purista, claro). Una
gran elección para "escritorios con estilo".
Conectando nuestra tarjeta con el
exterior (y al revés)
Todos tenemos la parte trasera de
nuestro ordenador repleta de una
maraña de cables. Parte de la culpa
la tiene la tarjeta de sonido.
Tradicionalmente
se
han
utilizado
conectores mini-jack, como los que
usamos
en
nuestro
radiocasete
portátil. Éstos siguen siendo los más
comunes en las soluciones de nivel
bajo y medio. Se trata de conexiones
analógicas de media calidad, que no
es suficiente en muchos casos.
La explicación es sencilla; si al grabar el sonido se pierde un poco de calidad,
cuando lo tratamos un poquito más y al grabarlo a soporte (al exterior) otro poco,
en total hemos perdido 2 pocos y un poquito, mientras que con otras soluciones
perderemos sólo un poquito.
MULTIMEDIA Y TARJETERIA
201
Conectores tradicionales en las cadenas o minicadenas de sonido
domésticas
son
los
RCA.
Normalmente
cada
RCA
es
un
canal
independiente (mientras que en el Jack van 2 canales juntos). Por ello siempre van
de dos en dos (clásicamente el rojo es el canal derecho y el blanco el izquierdo).
Ofrecen mayor calidad que los conectores Jack tradicionales pero son más caros y
menos compactos.
Si buscamos calidad profesional, deberemos decantarnos por una tarjeta con
entradas y salidas S/PDIF o salidas ópticas digitales. Éste ha sido desarrollado por
Sony y Philips para diseñar una interface de conexión digital de altas prestaciones.
Al tratar al sonido digitalmente, no se producen pérdidas de calidad en ningún
momento al pasar de soporte digital al ordenador o viceversa.
Por último, las entradas y salidas MIDI. Serán necesarias en caso de que vayamos
a trabajar con dispositivos MIDI como pudiera ser un teclado. Con la entrada MIDI,
nuestras composiciones serán mucho más sencillas, puesto que tan sólo deberemos
conectar nuestro teclado, y la partitura de la pieza que toquemos aparecerá en la
pantalla de nuestro ordenador (si contamos con el software adecuado).
Si además de entrada, disponemos de una salida MIDI, cualquier partitura en ese
formato podrá ser reproducida por un instrumento conectado, desde un teclado a
una caja de ritmos pasando por una guitarra o una batería (siempre que sean MIDI,
por supuesto).
Además de estos conectores externos, los hay también
internos, siendo el más importante el que va al CD-ROM,
para poder escuchar los CDs de música. Puede ser digital (sólo
en los más modernos) o el típico analógico, del cual hace
tiempo había varios formatos (para CD-ROMs Sony, Mitsumi,
IDE...) ahora ya unificados. Y en algunas tarjetas antiguas se
incluía un conector IDE de 40 pines para el CD-ROM (cuando
los CD-ROMs eran algo "extra" y no existía el EIDE con sus 2 canales).
Formatos o la fiebre del MP3
El último punto que vamos a tratar es el de los formatos de audio. Tal vez esto se
salga un poco del contexto hardware, pero es interesante conocerlos para saber
nuestras necesidades y por tanto encontrar la tarjeta que mejor se adapte a
nuestras posibilidades.
Audio digital en formato de onda o audio CD o .wav o .au (los wav del UNIX).
Era el formato por excelencia para almacenar el sonido digital. Su principal ventaja,
su calidad, su principal inconveniente, el espacio que ocupa. Para haceros una idea,
MULTIMEDIA Y TARJETERIA
202
en un CD caben "tan sólo" 74 minutos de audio a la máxima calidad: 44,1KHz, 16
bits y estéreo (2 canales).
Normalmente, cuando grabamos sonido en el ordenador lo haremos mediante este
formato, el formato de onda. Con él, se almacenan sin compresión alguna las
posiciones del sonido en cada instante. Sencillo y eficaz, pero con el problema del
espacio.
Con el formato MIDI se soluciona el problema del espacio. Es totalmente distinto
al formato de onda, con él, tan sólo almacenaremos las notas que deberán ser
tocadas en cada instante. Por tanto permite gran flexibilidad y es ideal para
compositores. Sin embargo, para obtener una calidad aceptable, será necesario que
nuestra tarjeta disponga de tabla de ondas o, en su defecto, de un sintetizador
virtual como el Yamaha visto anteriormente. Otra carencia importante es que no
podremos añadir voces humanas, no se pueden sintetizar tan fácilmente como el
sonido de un instrumento.
El formato MIDI ya no se utiliza como antes para dar música a juegos y
producciones multimedia, puesto que la capacidad de los CDs hace que sea posible
incluir las melodías en formato de onda, con la ventaja de poder incluir canciones
con voces (de personas).
A caballo entre ambos se encuentran los módulos. Los módulos provienen del
mundo Amiga, y tienen características muy interesantes. Por un lado se almacenan
las notas, como en los MIDI, y por otro, los instrumentos, como si de una tabla de
ondas se tratara. Por tanto, podemos grabar voces como un instrumento más y
utilizarlas en nuestras composiciones. Con los módulos se pueden obtener
producciones de gran calidad y de los más diversos estilos, como por ejemplo ésta.
Por último, el megafamoso y siemprepolémico .mp3. El mp3 no es mas que
una especificación para la compresión de ficheros de onda (los .wav). Con él se
consigue reducir el tamaño original de los ficheros en unas 10 veces, aunque
podemos variar cuánta compresión deseamos. La compresión normalmente es con
pérdida, perdiendo parte del sonido, bien por ser datos redundantes o por cortarse
de zonas donde apenas llega el oído humano. En la práctica, pocas personas
pueden distinguir entre una canción original y una en formato mp3 (personalmente
sólo he sido capaz de hacerlo con una canción con un ratio de compresión de 15 a 1
y prestando atención durante varias reproducciones, nunca a la primera). De ahí,
de Internet y de excelentes reproductores como el Winamp, gran parte de su éxito.
LA TARJETA FAX-MODEM
MULTIMEDIA Y TARJETERIA
203
Módem es un acrónimo de MOdulador-DEModulador; es decir, que es un dispositivo
que transforma las señales digitales del ordenador en señal telefónica analógica y
viceversa, con lo que permite al ordenador transmitir y recibir información por la
línea telefónica.
Los chips que realizan estas funciones están casi tan estandarizados como los de
las tarjetas de sonido; muchos fabricantes usan los mismos integrados, por ejemplo
de la empresa Rockwell, y sólo se diferencian por los demás elementos electrónicos
o la carcasa.
Tipos de módems
La distinción principal que se suele hacer es entre módems internos y módems
externos, si bien recientemente han aparecido unos módems llamados "módems
software" o Winmódems, que han complicado un poco el panorama.

Internos: consisten en una tarjeta de expansión sobre la cual están
dispuestos los diferentes componentes que forman el módem. Existen para
diversos tipos de conector:
o
ISA: debido a las bajas velocidades que se manejan en estos
aparatos, durante muchos años se utilizó en exclusiva este conector,
hoy en día en desuso.
o
PCI: el formato más común en la actualidad.
o
AMR: sólo en algunas placas muy modernas; baratos pero poco
recomendables por su bajo rendimiento.
La principal ventaja de estos módems reside en su mayor integración con el
ordenador, ya que no ocupan espacio sobre la mesa y toman su
alimentación eléctrica del propio ordenador. Además, suelen ser algo más
baratos debido a carecer de carcasa y transformador, especialmente si son
PCI (aunque en este caso son casi todos del tipo "módem software"). Por
contra, son algo más complejos de instalar y la información sobre su estado
sólo
puede
obtenerse
mediante
software.

Externos:
son
anteriores
pero
similares
metidos
a
los
en
una
carcasa que se coloca sobre la mesa o
el ordenador. La conexión con el ordenador se realiza generalmente
MULTIMEDIA Y TARJETERIA
204
mediante uno de los puertos serie o "COM", por lo que se usa la UART del
ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de
comunicación; actualmente ya existen modelos para puerto USB, de
conexión
y
configuración
aún
más
sencillas.
La ventaja de estos módems reside en su fácil transportabilidad entre
ordenadores,
además
de
que
podemos
saber
el
estado
el
módem
(marcando, con/sin línea, transmitiendo...) mediante unas luces que suelen
tener en el frontal. Por el contrario, son un trasto más, necesitan un enchufe
para su transformador y la UART debe ser una 16550 o superior para que el
rendimiento de un módem de 28.800 bps o más sea el adecuado.

Módems PC-Card: son módems que se utilizan en portátiles; su tamaño es
similar al de una tarjeta de crédito algo más gruesa, pero sus capacidades
pueden ser igual o más avanzadas que en los modelos normales.

Módems software, HSP o Winmódems: son módems internos (al menos
no conozco ninguno externo, y dudo que fuera posible construirlo) en los
cuales se han eliminado varias piezas electrónicas, generalmente chips
especializados, de manera que el microprocesador del ordenador debe suplir
su función mediante software. Lo normal es que utilicen como conexión una
ranura PCI (o una AMR), aunque no todos los módems PCI son de este tipo.
La ventaja resulta evidente: menos piezas, más baratos. Las desventajas,
que necesitan microprocesadores muy potentes (como poco un Pentium 133
MHz), que su rendimiento depende del número de aplicaciones abiertas
(nada de multitarea mientras el módem funciona o se volverá una auténtica
tortuga) y que el software que los maneja sólo suele estar disponible para
Windows 95/98, de ahí el apelativo de Winmódems. Evidentemente, resultan
poco recomendables pero son baratos...

Módems completos: los módems clásicos no HSP, bien sean internos o
externos. En ellos el rendimiento depende casi exclusivamente de la
velocidad del módem y de la UART, no del microprocesador.
La velocidad del módem
Resulta sin duda el parámetro que mejor define a un módem, hasta el punto de que
en muchas ocasiones se habla simplemente de "un módem 33.600", o "un 14.400",
sin especificar más. Estas cifras son bits por segundo, bps.
Se debe tener en cuenta que son bits, no bytes. En este contexto, un byte está
compuesto de 8 bits; por tanto, un módem de 33.600 bps transmitirá (en las
mejores condiciones) un máximo de 4.200 bytes por segundo, o lo que es lo
MULTIMEDIA Y TARJETERIA
205
mismo: necesitará como poco 6 minutos para transmitir el contenido de un
disquete de 1,44 MB.
Por cierto: sólo en las mejores condiciones. La saturación de las líneas, la baja
capacidad que proporcione el proveedor de acceso a Internet, la mala calidad del
módem o de la línea (ruidos, interferencias, cruces...) suelen hacer que la velocidad
media efectiva sea mucho menor, de 3.000 bytes/s o menos. Saber cuál de éstos
es el factor limitante resulta vital para mejorar nuestro acceso a Internet.
Así mismo, no se debe confundir esta velocidad nominal (la que se supone que
podría alcanzar el módem, por ejemplo 33.600 bps) con la velocidad de
negociado, que es aquella que se nos indica al comienzo de una conexión a
Internet; esta última es aquella que en principio, y en ese momento, ha identificado
el módem del otro lado de la línea como válida, y tiene poco que ver con el
rendimiento que obtendremos.
Así, una conexión en la que la velocidad de negociado ha sido de 31.200 bps podría
acabar siendo mucho más rápida que otra en que se han alcanzado los 33.600.
Sólo debe tenerse en cuenta este valor cuando es anormalmente bajo (como
14.400 con un módem de 33.600) o cuando nunca alcanzamos la velocidad máxima
(lo que puede indicar que el módem, la línea o el proveedor son de mala calidad).
Los módems de ¿55.600 bps?
...En realidad, de unos cuantos menos. Estos módems, también conocidos
simplemente como de "56 K" (un redondeo al alza que no se corresponde con la
realidad), utilizan una serie de trucos para aprovechar mejor la línea telefónica y
poder recibir información a esta velocidad... a veces.
Los problemas de esta tecnología son:

al otro lado de la línea (por ejemplo en el servidor de su proveedor de
Internet) debe existir un módem que sea también de 55.600 bps, y además
del mismo tipo (ya que existen tres estándares distintos);

esta velocidad se utiliza sólo al recibir información, al mandarla la
velocidad máxima es de 33.600 bps (aunque en Internet lo más común es
recibirla);

si en el camino la señal es transformada múltiples veces (lo cual puede
ocurrir, por ejemplo, si se encuentra a gran distancia de su proveedor, lejos
de un núcleo urbano o usa una centralita), resulta imposible utilizar esta
tecnología;

la línea telefónica debe ser de alta calidad; si no se conecta a 33.600 bps sin
problemas, seguro que no podrá hacerlo a 55.600.
MULTIMEDIA Y TARJETERIA
206
Por todos estos motivos, la velocidad máxima real serán unos 45.000
bps de media, suponiendo que todos los factores colaboren y las líneas
no estén saturadas (lo cual desgraciadamente no es muy común).
Respecto a la distancia máxima ideal hasta el proveedor o la central
telefónica correspondiente, se recomienda que sea menor de 3,5 millas (unos 5,6
Km).
Sin embargo, merece la pena adquirir un módem de este tipo si sabemos que
nuestro proveedor lo admite y nuestra línea es de calidad, ya que cuestan poco
más que los de 33.600 bps y si no son capaces de alcanzar los 55.600 funcionarán
como módems normales a 33.600 bps, que no es poco. A este respecto, recuerde
que en España se usa mayoritariamente la norma oficial V.90, pero también la
pseudo-norma K56flex, con la que son compatibles la mayoría de los módems, pero
no todos.
De cualquier forma, recuerde que el factor más limitante suele ser un mal
proveedor, y que siempre conviene comprar un módem de calidad contrastada de
33.600 bps (un US Robotics, Diamond, Sitre, Zoom, Motorola...) antes que uno de
55.600 de padre desconocido...
Las normas de comunicaciones
Las transmisiones de datos por vía telefónica se basan en una serie de estándares
internacionales que deben cumplir los dispositivos implicados en la comunicación.
Cada norma define una serie de parámetros tales que permiten la correcta
comunicación a una cierta velocidad.
Así, cuando se dice que un módem cumple con la norma "V.34", quiere decir que es
un módem que cumple una serie de especificaciones tal que le permite comunicarse
con módems de esa velocidad (y usualmente de cualquier velocidad inferior a ésa).
Las normas más importantes son:
Norma
Explicación
Velocidad máxima (bps)
V.22bis
2.400
V.32
9.600
V.32bis
Comunicaciones módem-módem
14.400
V.34
28.800
V.34+
33.600
V.90
55.600
MULTIMEDIA Y TARJETERIA
207
V.29
Comunicaciones módem-fax
14.400
V.42 y MNP2-4
Control de errores
No aplicable
V.42bis y MNP5-10
Compresión de datos
No aplicable
Además de estos estándares, existen dos pseudo-estándares (no son oficiales) para
las transmisiones a 55.600 bps: el "K56flex" y el "x2". Son incompatibles entre sí;
el de más éxito en España fue el K56flex de Rockwell, aunque el x2 se usaba
mucho en Estados Unidos; estos pseudo-estándares se resistieron mucho a ser
sustituidos por la norma oficial V.90 debido al excesivo tiempo que tardó en
aparecer ésta.
La velocidad interna PC-módem
A falta de un nombre mejor, es como designaremos a la velocidad con que se
comunican entre sí el PC y el módem, bien sea éste interno (en cuyo caso lo hará
mediante el bus ISA), bien sea externo (mediante un cable conectado a un puerto
COM).
Esta velocidad puede (y debe) ser mayor que aquélla a la que se están
comunicando nuestro módem y el módem remoto. Cuanto mayor sea el flujo de
información entre nuestro ordenador y nuestro módem, más libre estará éste para
ir dando la información que recibe del exterior y mejor será el rendimiento, sin
cuellos de botella que lo ralenticen.
Por ejemplo, si ambas velocidades fueran iguales (por ejemplo de 28.800 bps), si el
módem estuviera recibiendo un caudal constante igual a esos 28.800 bps y
deseáramos darle una orden ("dile al servidor remoto que quiero otra página", por
ejemplo), debería cedernos parte de esos 28.800 bps para que le pudiéramos
"hablar", lo que causaría un desfase en la transmisión y una ralentización del
proceso. Y si por algún motivo tuviéramos la suerte de conectar unos instantes a
más velocidad de la normal (lo que se denomina un "pico" en la transmisión), no
podríamos aprovecharlo porque hemos puesto el tope en la velocidad nominal.
MULTIMEDIA Y TARJETERIA
208
Siendo prácticos, digamos que la velocidad interna ideal para un módem 55.600,
33.600 o 28.800 son 115.200 bps (como vemos, mucho mayor de la nominal),
mientras que para un módem 14.400 es 57.600 bps. Sin embargo, a veces
resultan excesivamente difíciles de controlar estos valores y deben seleccionarse
valores inferiores, como por ejemplo 38.400 bps para un módem 14.400. En
Windows 95 se seleccionan como una opción más del módem, con el críptico
nombre de "velocidad máxima".
Quien limita estos valores, proporcionando o no soporte a estas velocidades, es la
tan comentada UART, de la que trataremos más adelante.
Los comandos Hayes
Hayes es el nombre de una empresa que en los orígenes de la comunicación por
módem (cuando 2.400 bps podían parecer una enormidad) definió una serie de
comandos u órdenes para que el software de comunicaciones pudiera comunicarse
con el módem. Estos comandos tuvieron tanto éxito que se convirtieron en el
virtual estándar de comunicaciones, y los módems que los comprenden (el 99,99%
de los módems modernos) se denominan compatibles Hayes.
Los comandos Hayes más comunes son:
MULTIMEDIA Y TARJETERIA
209

ATZ: inicializa o resetea el módem.

ATH: cuelga la línea.

ATM: apaga el altavoz del módem.

ATDP número: marca un teléfono por pulsos (método de marcar de las
líneas de teléfono analógicas antiguas, que asigna tantos ruidos de marcado
como valores de las cifras del número; así, el "055" se marcaría haciendo
10+5+5=20 sonidos).

ATDT número: marca un teléfono por tonos (método de marcar de las
líneas de teléfono analógicas modernas, que asigna un ruido de marcado por
cada cifra del número; así, el "055" se marcaría haciendo 1+1+1=3
sonidos).
Por ejemplo, la siguiente secuencia de comandos: ATMDT055 nos serviría para
llamar por tonos al número de teléfono 055, sin tener que oír el altavoz del módem.
En Windows estos comandos se introducirían (si es que hacen falta) en la casilla
Configuraciones adicionales que se encuentra en Panel de control -> Módems ->
Propiedades -> Conexión -> Avanzada.
La UART
Se trata del chip que controla los puertos serie del ordenador. En el caso de los
módems internos no tiene especial importancia, ya que suelen traer la suya,
preparada para la velocidad que necesitan. Los externos, sin embargo, puesto que
se conectan a uno de los puertos COM ya existentes en el ordenador, dependen de
la velocidad de la UART de éste.
Las UART se designan con un número de referencia. Si bien han existido varios
modelos en los casi veinte años de vida de los PCs, los más comunes han sido el
8250 y el 16550. La 8250 es el modelo clásico, que se usó hasta mediada la época
de los 486; es capaz de manejar sin problemas módems hasta de 14.400 bps, pero
resulta insuficiente para módems más rápidos.
La 16550 es un modelo mucho más avanzado que llega a proporcionar velocidades
internas PC-módem de hasta 115.200 bps, más que suficientes para módems de
28.800, 33.600 y 55.600 bps. Además de un diseño más complejo, tiene buffers de
memoria en los que guardar información hasta que pueda ser procesada.
Otros modelos son la 16450, que es un modelo de transición entre ambas y que
como mucho puede manejar módems de 28.800 bps, aunque ya con ciertas
mermas de rendimiento, y las diversas variantes y mejoras de la 16550 (16550AF y
muchas otras de número de referencia superior).
MULTIMEDIA Y TARJETERIA
210
Para identificar el modelo de UART presente en un ordenador se suelen usar
programas software que detectan el hardware, aunque los resultados no siempre
son exactos. Uno de estos programas es el MSD de Microsoft, que viene con las
últimas versiones del DOS, así como en el CD de Windows 95 (si bien no se instala
por defecto y debe hacerse a mano). Es un programa para DOS, como casi todos
los que realizan estas tareas, y aunque es poco fiable presenta la ventaja de que
casi seguro que disponemos de él.
Tanto en el MSD como en otros programas, si el programa detecta una UART 16550
o superior es casi seguro que ha acertado; sin embargo, si detecta una 8250 puede
que no sea correcto y en realidad sea un modelo más avanzado. Otros programas
que detectan el hardware del ordenador son CheckIt, Agsi, PCConfig o Hardware
Info; todos ellos pueden localizarse y obtenerse en Internet, en la dirección
www.shareware.com o bien mediante Yahoo u otros buscadores.
Para cambiar una UART que resulta insuficiente para instalar un módem externo de
cierta velocidad, deberemos cambiar la tarjeta que controla los puertos COM. En
dicha tarjeta, generalmente ISA, es donde se encontrará la UART y los chips para el
soporte de puerto paralelo, así como en ocasiones para la disquetera y los discos
duros IDE. En los ordenadores más modernos estas habilidades vienen integradas
en la placa base, o al menos el soporte para discos duros. En muchos casos no hará
falta sustituir la tarjeta, sino que bastará con deshabilitar mediante unos jumpers
en la misma el soporte de puertos COM y habilitarlo en la nueva tarjeta, que
MULTIMEDIA Y TARJETERIA
211
añadiríamos sin quitar la antigua. Estas tarjetas (también conocidas como de I/O)
son muy baratas, menos de 5.000 pts, pero resultan cada vez más difíciles de
encontrar debido a la integración de estos componentes en la placa base.
Por cierto, tengo entendido que algunos módems internos carecen de UART o bien
no la configuran adecuadamente, por lo que es como si no existiera e intentan usar
la del ordenador, lo que puede dar problemas de rendimiento, de conflicto entre
dispositivos o complicar la configuración del módem. Si el rendimiento de su
módem interno no parece el correcto y la UART de su ordenador es un modelo
antiguo, quizá sea su caso. De todas formas, esto no parece ocurrir en módems "de
marca".
La RDSI
Es decir, la Red Digital de Servicios Integrados (ISDN en inglés), o lo que es lo
mismo: la línea de teléfono digital. Lo que distingue a estas líneas no es el cable,
que en la mayoría de los casos es el mismo, sino el método de utilizarlo: se utiliza
la línea telefónica digitalmente en vez de analógicamente, lo cual implica que la
cantidad de información transmitible por la línea es mayor.
Digitalizar cualquier cosa siempre implica perder una infinitesimal cantidad de
información de la señal analógica original, pero en el caso de la voz resulta
imposible de percibir para cualquier ser humano (y para muchas máquinas). A
cambio obtenemos un mayor ancho de banda (cabe más información) y mayor
pureza de señal (una vez digitalizada no se pierde información).
Una línea digital común tiene un ancho de banda de 128 kilobps; sí, ¡128.000 bits
por segundo!, que pueden repartirse en dos canales de 64 Kbps. Así, podemos
tener dos líneas de teléfono, o una línea de teléfono y una conexión a Internet de
64.000 bps, o una conexión a Internet de 128.000 bps. Y son cifras reales y
absolutas, no como los 55.600 bps de los módems de que hablábamos antes...
La pega suele ser económica, claro. Estas líneas cuestan más dinero al
contratarlas y mensualmente, además de que algunos proveedores de Internet
piden un extra a quienes quieren conectarse a estas velocidades, lo que es lógico si
pensamos en que un solo cliente que se conecta a 64.000 bps ocupa ancho de
banda como dos o tres con módems normales de entre 14.400 y 33.600 bps, y el
proveedor paga bastante por dicho ancho de banda.
Por lo demás, instalar y manejar una conexión a Internet por RDSI no es mucho
más difícil que hacerlo con una normal, y muchas veces se ofrece incluso un
paquete que incluye la contratación de la línea con Telefónica (o Retevisión o quien
sea), la tarjeta RDSI, la conexión a Internet y la instalación a domicilio de todo.
MULTIMEDIA Y TARJETERIA
212
Por último comentar que estas conexiones se realizan mediante un aparato similar
a un módem que, al ser casi siempre interno, recibe el nombre genérico de tarjeta
RDSI y que no resulta excesivamente caro. Dispone de sus propias UART
especiales capaces de alcanzar esos 128.000 bps, por lo que no debería depender
de las capacidades del ordenador; pero debido a la gran cantidad de información a
manejar y a que se supone que buscamos un rendimiento adecuado (si no, mejor
no gastarnos tanto dinero), el ordenador deberá ser medianamente potente,
un 486 o preferiblemente un Pentium.
SISTEMAS OPERATIVOS
Introducción a los sistemas operativos
Definiciones de los sistemas operativos.
Un sistema operativo es un programa que actúa como intermediario entre el
usuario y el hardware de un computador y su propósito es proporcionar un entorno
en el cual el usuario pueda ejecutar programas. El objetivo principal de un sistema
operativo es lograr que el sistema de computación se use de manera cómoda, y el
objetivo secundario es que el hardware del computador se emplee de manera
eficiente.
Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin
embargo, es un programa muy especial, quizá el más complejo e importante en
una computadora. El SO despierta a la computadora y hace que reconozca a la
CPU, la memoria, el teclado, el sistema de vídeo y las unidades de disco. Además,
proporciona la facilidad para que los usuarios se comuniquen con la computadora y
sirve de plataforma a partir de la cual se corran programas de aplicación.
Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un
autodiagnóstico llamado auto prueba de encendido (Power On Self Test, POST).
Durante la POST, la computadora identifica su memoria, sus discos, su teclado, su
sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la
computadora
hace
es
buscar
un
SO
para
arrancar
(boot).
Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte
de éste en su memoria en todo momento. Mientras la computadora esté encendida,
el SO tiene 4 tareas principales:

Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica
al usuario, para que este último se pueda comunicar con la computadora.
Interfaz de línea de comando: tú introduces palabras y símbolos desde el
teclado de la computadora, ejemplo, el MS-DOS. Interfaz gráfica del Usuario
(GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar
sobre figuras llamadas iconos o seleccionar opciones de los menús.

Administrar los dispositivos de hardware en la computadora. Cuando corren
los programas, necesitan utilizar la memoria, el monitor, las unidades de
disco, los puertos de Entrada/Salida (impresoras, módems, etc.). El SO sirve
de intermediario entre los programas y el hardware.

Administrar y mantener los sistemas de archivo de disco. Los SO agrupan la
información dentro de compartimientos lógicos para almacenarlos en el
SISTEMAS OPERATIVOS
214
disco. Estos grupos de información son llamados archivos. Los archivos
pueden contener instrucciones de programas o información creada por el
usuario. El SO mantiene una lista de los archivos en un disco, y nos
proporciona las herramientas necesarias para organizar y manipular estos
archivos.

Apoyar a otros programas. Otra de las funciones importantes del SO es
proporcionar servicios a otros programas. Estos servicios son similares a
aquellos que el SO proporciona directamente a los usuarios. Por ejemplo,
listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio
disponible,
etc.
Cuando
los
programadores
escriben
programas
de
computadora, incluyen en sus programas instrucciones que solicitan los
servicios del SO. Estas instrucciones son conocidas como "llamadas del
sistema"
¿Qué es un sistema operativo?
Un sistema operativo es el programa que oculta la verdad del hardware al
programador y presenta una vista simple y agradable de los archivos nominados
que pueden leerse y escribirse. El sistema operativo resguarda al programador del
hardware del disco y presenta una interfaz simple orientada al archivo, también
disimula mucho del trabajo concerniente a interrupciones, relojes o cronómetros,
manejo
de
memoria
y
otras
características
de
bajo
nivel.
La función del sistema operativo es la de presentar al usuario con el equivalente de
una máquina ampliada o máquina virtual que sea más fácil de programar que el
hardware implícito.
Un sistema operativo es una parte importante de casi cualquier sistema de
computación. Un sistema de computación puede dividirse en cuatro componentes:
el hardware, el sistema operativo, los programas de aplicación y los usuarios.
El hardware (unidad central de procesamiento (UCP), memoria y dispositivos de
entrada y salida (E/S)) proporciona los recursos de computación básicos. Los
programas de aplicación (compiladores, sistemas de bases de datos, juegos de
video y programas para negocios) definen la forma en que estos recursos se
emplean para resolver los problemas de computación de los usuarios. Puede haber
distintos usuarios (personas, máquinas, otros computadores) que intentan resolver
problemas diferentes; por lo tanto es posible que haya diferentes programas de
aplicación. El sistema operativo controla y coordina el uso del hardware entre los
diversos
programas
de
aplicación
de
los
distintos
usuarios
Podemos ver al sistema operativo como un asignador de recursos. Un sistema de
computación tiene muchos recursos (hardware y software) que pueden requerirse
SISTEMAS OPERATIVOS
215
para resolver un problema: tiempo de la UCP, espacio de memoria, espacio de
almacenamiento de archivos, dispositivos de E/S, etc. El sistema operativo actúa
como el administrador de estos recursos y los asigna a usuarios y programas
concretos
según
los
necesiten
las
tareas
de
los
usuarios.
Puesto que pueden surgir conflictos en las solicitudes de recursos, el sistema
operativo debe decidir a que solicitudes se les asignaran para que el sistema de
computación
pueda
funcionar
de
manera
eficiente
y
justa.
En términos generales no hay una definición de sistema operativo completamente
adecuada. Los sistemas operativos existen porque son una manera razonable de
solucionar el problema de crear un sistema de computación utilizable.
Objetivos para la creación de los sistemas Operativos.

Transformar el complejo hardware de una computadora a una máquina
accesible al usuario.

Lograr el mejor uso posible de los recursos. Hacer eficiente el uso del
recurso.
El objetivo fundamental de los sistemas de computación es ejecutar los programas
de los usuarios y facilitar la resolución de sus problemas. El hardware se construye
con este fin, pero como este no es fácil de utilizar, se desarrollan programas de
aplicación que requieren ciertas operaciones comunes, como el control de
dispositivos de E/S. las funciones comunes de control y de asignación de recursos
se integran para formar un solo fragmento de software: el sistema operativo.
Desarrollo
En
un
principio
histórico
de
solo
el
existía
los
hardware
sistemas
del
computador.
operativos.
Los
primeros
computadores eran (físicamente) grandes maquinas que se operaban desde una
consola. El programador escribía un programa y luego lo controlaba directamente
desde la consola. En primer lugar, el programa se cargaba manualmente en la
memoria, desde los interruptores del tablero frontal (una instrucción en cada
ocasión), desde una cinta de papel o desde tarjetas perforadas. Luego se pulsaban
los botones adecuados para establecer la dirección de inicio y comenzar la
ejecución del programa. Mientras este se ejecutaba, el programador-operador lo
podía supervisar observando las luces en la consola, si se descubrían errores, el
programador podía detener el programa, examinar el contenido de la memoria y los
registros y depurar el programa directamente desde la consola. La salida del
programa se imprimía, o se perforaba en cintas de papel o tarjetas para su
impresión posterior.
Sin
embargo,
con
este
procedimiento
se
presentaban
ciertos
problemas.
Supongamos que un usuario se había registrado para usar una hora de tiempo del
SISTEMAS OPERATIVOS
216
computador dedicada a ejecutar el programa que estaba desarrollando, pero se
topaba con algún error difícil y no podía terminar en esa hora. Si alguien más había
reservado el siguiente bloque de tiempo, usted debía detenerse, rescatar lo que
pudiera y volver mas tarde para continuar. Por otra parte, si el programa se
ejecutaba sin problemas, podría terminar en 35 minutos; pero como pensó que
necesitaría la maquina durante más tiempo, se registro para usarla una hora, y
permanecería inactiva durante 25 minutos.
Conforme transcurrió el tiempo, se desarrollaron software y hardware adicionales;
empezaron a popularizarse los lectores de tarjetas, impresoras de líneas y cintas
magnéticas; se diseñaron ensambladores, cargadores y ligadores para facilitar las
tareas de programación, y se crearon bibliotecas de funciones comunes, de manera
que estas podían copiarse a un nuevo programa sin tener que escribirlas de nuevo.
Las rutinas que efectuaban operaciones de E/S tenían una importancia especial.
Cada nuevo dispositivo de E/S poseía sus propias características, lo que requería
una cuidadosa programación. Así mismo, para cada uno de ellos se escribía una
subrutina especial, la cual se denominaba manejador de dispositivos. Este sabe
como deben de usarse los buffers, indicadores, registros, bits de control y bits de
estado para cada dispositivo. Cada tipo de dispositivo tenía su propio manejador.
Una tarea sencilla, como leer un carácter de un lector de cinta de papel, podía
conllevar complicadas secuencias de operaciones específicas para el dispositivo. En
lugar de tener que escribir cada vez el código necesario, bastaba usar el manejador
de dispositivo de la biblioteca.
Más tarde aparecieron los compiladores de FORTRAN, COBOL y otros lenguajes, lo
que facilito la tarea de programación, pero hizo más complejo el funcionamiento del
computador. Por ejemplo, al preparar la ejecución de un programa en FORTRAN, el
programador primero necesitaba cargar en el computador el compilador de
FORTRAN, que generalmente se conservaba en una cinta magnética, por lo que
había que montar la cinta adecuada en la unidad correspondiente. El programa se
leía a través del lector de tarjetas y se escribía en otra cinta. El compilador de
FORTRAN producía una salida en lenguaje ensamblador, que luego tenia que
ensamblarse, para esto era necesario montar otra cinta con el ensamblador, y su
salida debía enlazarse con las rutinas de apoyo de las bibliotecas. Finalmente, el
programa objeto, en código binario, estaba listo para ejecutarse; se cargaba en
memoria y se depuraba desde la consola como antes.
Los Sistemas Operativos, al igual que el Hardware de los computadores, han sufrido
una serie de cambios revolucionarios llamados generaciones. En el caso del
Hardware, las generaciones han sido marcadas por grandes avances en los
componentes utilizados, pasando de válvulas (primera generación) a transistores
SISTEMAS OPERATIVOS
217
(segunda generación), a circuitos integrados (tercera generación), a circuitos
integrados de gran y muy gran escala (cuarta generación). Cada generación
Sucesiva de hardware ha ido acompañada de reducciones substanciales en los
costos, tamaño, emisión de calor y consumo de energía, y por incrementos
notables en velocidad y capacidad.
Generación Cero (década de 1940)
Los primeros sistemas computacionales no poseían sistemas operativos. Los
usuarios tenían completo acceso al lenguaje de la maquina. Todas las instrucciones
eran codificadas a mano.
Primera Generación (década de 1950)
Los sistemas operativos de los años cincuenta fueron diseñados para hacer mas
fluida la transición entre trabajos. Antes de que los sistemas fueran diseñados, se
perdía un tiempo considerable entre la terminación de un trabajo y el inicio del
siguiente. Este fue el comienzo de los sistemas de procesamiento por lotes, donde
los trabajos se reunían por grupos o lotes. Cuando el trabajo estaba en ejecución,
este tenia control total de la maquina. Al terminar cada trabajo, el control era
devuelto al sistema operativo, el cual limpiaba y leía e iniciaba el trabajo siguiente.
Al inicio de los 50's esto había mejorado un poco con la introducción de tarjetas
perforadas (las cuales servían para introducir los programas de lenguajes de
máquina), puesto que ya no había necesidad de utilizar los tableros enchufables.
Además el laboratorio de investigación General Motors implementó el primer
sistema operativo para la IBM 701. Los sistemas de los 50's generalmente
ejecutaban una sola tarea, y la transición entre tareas se suavizaba para lograr la
máxima utilización del sistema. Esto se conoce como sistemas de procesamiento
por lotes de un sólo flujo, ya que los programas y los datos eran sometidos en
grupos o lotes.
La introducción del transistor a mediados de los 50's cambió la imagen
radicalmente. Se crearon máquinas suficientemente confiables las cuales se
instalaban en lugares especialmente acondicionados, aunque sólo las grandes
universidades y las grandes corporaciones o bien las oficinas del gobierno se podían
dar el lujo de tenerlas.
Para poder correr un trabajo (programa), tenían que escribirlo en papel (en
FORTRAN o en lenguaje ensamblador) y después se perforaría en tarjetas.
Enseguida se llevaría la pila de tarjetas al cuarto de introducción al sistema y la
entregaría a uno de los operadores. Cuando la computadora terminara el trabajo,
un operador se dirigiría a la impresora y desprendería la salida y la llevaría al
cuarto de salida, para que la recogiera el programador.
SISTEMAS OPERATIVOS
Segunda
Generación
218
(a
mitad
de
la
década
de
1960)
La característica de los sistemas operativos fue el desarrollo de los sistemas
compartidos con multiprogramación, y los principios del multiprocesamiento. En los
sistemas de multiprogramación, varios programas de usuario se encuentran al
mismo tiempo en el almacenamiento principal, y el procesador se cambia
rápidamente de un trabajo a otro. En los sistemas de multiprocesamiento se
utilizan varios procesadores en un solo sistema computacional, con la finalidad de
incrementar el poder de procesamiento de la maquina.
La independencia de dispositivos aparece después. Un usuario que desea escribir
datos en una cinta en sistemas de la primera generación tenia que hacer referencia
especifica a una unidad de cinta particular. En la segunda generación, el programa
del usuario especificaba tan solo que un archivo iba a ser escrito en una unidad de
cinta con cierto número de pistas y cierta densidad.
Se desarrollo sistemas compartidos, en la que los usuarios podían acoplarse
directamente con el computador a través de terminales. Surgieron sistemas de
tiempo real, en que los computadores fueron utilizados en el control de procesos
industriales. Los sistemas de tiempo real se caracterizan por proveer una respuesta
inmediata.
Tercera
Generación
(mitad
de
década
1960
a
mitad
década
de
1970)
Se inicia en 1964, con la introducción de la familia de computadores Sistema/360
de IBM. Los computadores de esta generación fueron diseñados como sistemas
para usos generales. Casi siempre eran sistemas grandes, voluminosos, con el
propósito de serlo todo para toda la gente. Eran sistemas de modos múltiples,
algunos
de
ellos
soportaban
simultáneamente
procesos
por
lotes,
tiempo
compartido, procesamiento de tiempo real y multiprocesamiento. Eran grandes y
costosos, nunca antes se había construido algo similar, y muchos de los esfuerzos
de desarrollo terminaron muy por arriba del presupuesto y mucho después de lo
que el planificador marcaba como fecha de terminación.
Estos sistemas introdujeron mayor complejidad a los ambientes computacionales;
una complejidad a la cual, en un principio, no estaban acostumbrados los usuarios.
Cuarta Generación (mitad de década de 1970 en adelante)
Los sistemas de la cuarta generación constituyen el estado actual de la tecnología.
Muchos diseñadores y usuarios se sienten aun incómodos, después de sus
experiencias
con
los
sistemas
operativos
de
la
tercera
generación.
Con la ampliación del uso de redes de computadores y del procesamiento en línea
SISTEMAS OPERATIVOS
219
los usuarios obtienen acceso a computadores alejados geográficamente a través de
varios tipos de terminales.
Los sistemas de seguridad se han incrementado mucho ahora que la información
pasa a través de varios tipos vulnerables de líneas de comunicación. La clave de
cifrado esta recibiendo mucha atención; han sido necesario codificar los datos
personales o de gran intimidad para que; aun si los datos son expuestos, no sean
de utilidad a nadie mas que a los receptores adecuados.
2. Estructura de un sistema operativo
En esta unidad examinaremos cuatro estructuras distintas que ya han sido
probadas, con el fin de tener una idea más extensa de cómo esta estructurado el
sistema operativo. Veremos brevemente algunas estructuras de diseños de
sistemas operativos.
Estructura modular.
También llamados sistemas monolíticos. Este tipo de organización es con mucho la
mas común; bien podría recibir el subtitulo de "el gran embrollo". La estructura
consiste en que no existe estructura alguna. El sistema operativo se escribe como
una colección de procedimientos, cada uno de los cuales puede llamar a los demás
cada vez que así lo requiera. Cuando se usa esta técnica, cada procedimiento del
sistema tiene una interfaz bien definida en términos de parámetros y resultados y
cada uno de ellos es libre de llamar a cualquier otro, si este ultimo proporciona
cierto cálculo útil para el primero. Sin embargo incluso en este tipo de sistemas es
posible tener al menos algo de estructura. Los servicios (llamadas al sistema) que
proporciona el sistema operativo se solicitan colocando los parámetros en lugares
bien definidos, como en los registros o en la pila, para después ejecutar una
instrucción especial de trampa de nombre "llamada al núcleo" o "llamada al
supervisor".
Esta instrucción cambia la máquina del modo usuario al modo núcleo y transfiere el
control al sistema operativo, lo que se muestra en el evento (1) de la figura 1. El
sistema operativo examina entonces los parámetros de la llamada, para determinar
cual de ellas se desea realizar, como se muestra en el evento (2) de la figura 1. A
continuación, el sistema operativo analiza una tabla que contiene en la entrada k
un apuntador al procedimiento que realiza la k-esima llamada al sistema. Esta
operación que se muestra en (3) de la figura 1, identifica el procedimiento de
servicio, al cual se llama. Por ultimo, la llamada al sistema termina y el control
regresa al programa del usuario.
SISTEMAS OPERATIVOS
Esta
organización
sugiere
220
una
organización
básica
del
sistema
operativo:
1.- un programa principal que llama al procedimiento del servicio solicitado.
2.- un conjunto de procedimientos de servicio que llevan a cabo las llamadas al
sistema.
3.- un conjunto de procedimientos utilitarios que ayudan al procedimiento de
servicio.
En este modelo, para cada llamada al sistema existe un procedimiento de servicio
que se encarga de él. Los procedimientos utilitarios hacen cosas necesarias para
varios procedimientos de servicio, por ejemplo buscar los datos de los programas
del usuario. La siguiente figura muestra este procedimiento de tres capas:
Estructura por microkernel.
Las funciones centrales de un SO son controladas por el núcleo (kernel) mientras
que la interfaz del usuario es controlada por el entorno (shell). Por ejemplo, la
parte más importante del DOS es un programa con el nombre "COMMAND.COM"
Este programa tiene dos partes. El kernel, que se mantiene en memoria en todo
momento, contiene el código máquina de bajo nivel para manejar la administración
de hardware para otros programas que necesitan estos servicios, y para la segunda
parte del COMMAND.COM el shell, el cual es el interprete de comandos
Las funciones de bajo nivel del SO y las funciones de interpretación de comandos
están separadas, de tal forma que puedes mantener el kernel DOS corriendo, pero
utilizar una interfaz de usuario diferente. Esto es exactamente lo que sucede
cuando cargas Microsoft Windows, el cual toma el lugar del shell, reemplazando la
interfaz de línea de comandos con una interfaz gráfica del usuario. Existen muchos
"shells" diferentes en el mercado, ejemplo: NDOS (Norton DOS), XTG, PCTOOLS, o
inclusive el mismo SO MS-DOS a partir de la versión 5.0 incluyó un Shell llamado
DOS SHELL.
SISTEMAS OPERATIVOS
221
Estructura por anillos concéntricos (capas).
El sistema por "capas" consiste en organizar el sistema operativo como una
jerarquía de capas, cada una construida sobre la inmediata inferior. El primer
sistema construido de esta manera fue el sistema THE (Technische Hogeschool
Eindhoven), desarrollado en Holanda por E. W. Dijkstra (1968) y sus estudiantes.
El sistema tenia 6 capas, como se muestra en la figura 3. La capa 0 trabaja con la
asignación del procesador y alterna entre los procesos cuando ocurren las
interrupciones o expiran los cronómetros. Sobre la capa 0, el sistema consta de
procesos secuénciales, cada uno de los cuales se podría programar sin importar que
varios procesos estuvieran ejecutándose en el mismo procesador, la capa 0
proporcionaba la multiprogramación básica de la CPU.
La capa 1 realizaba la administración de la memoria. Asignaba el espacio de
memoria principal para los procesos y un recipiente de palabras de 512K se
utilizaba para almacenar partes de los procesos (páginas) para las que no existía
lugar en la memoria principal. Por encima de la capa 1, los procesos no debían
preocuparse si estaban en la memoria o en el recipiente; el software de la capa 1
se encargaba de garantizar que las páginas llegaran a la memoria cuando fueran
necesarias.
La capa 2 se encargaba de la comunicación entre cada proceso y la consola del
operador. Por encima de esta capa, cada proceso tiene su propia consola de
operador.
La capa 3 controla los dispositivos de E/S y guarda en almacenes (buffers) los
flujos de información entre ellos. Por encima de la capa 3, cada proceso puede
trabajar con dispositivos exactos de E/S con propiedades adecuadas, en vez de
dispositivos reales con muchas peculiaridades. La capa 4 es donde estaban los
programas del usuario, estos no tenían que preocuparse por el proceso, memoria,
consola o control de E/S. el proceso operador del sistema se localizaba en la capa 5
Una generalización mas avanzada del concepto de capas se presento en el sistema
MULTICS. En lugar de capas, MULTICS estaba organizado como una serie de anillos
concéntricos,
siendo
los
anillos
interiores
los
privilegiados.
Cuando
un
procedimiento de un anillo exterior deseaba llamar a un procedimiento de un anillo
interior,
debió
hacer
el
equivalente
a
una
llamada
al
sistema
Mientras que el esquema de capas de THE era en realidad un apoyo al diseño,
debido a que todas las partes del sistema estaban ligadas entre si en un solo
programa objeto, en MULTICS, el mecanismo de anillos estaba mas presente
durante el tiempo de ejecución y era reforzado por el hardware. La ventaja del
mecanismo de anillos es su facilidad de extensión para estructurar subsistemas del
usuario.
SISTEMAS OPERATIVOS
222
5
El operador
4
Programas del usuario
3
Control de entrada/salida
2
Comunicación operador-proceso
1
Administración de la memoria y del disco
0
Asignación del procesador y multiprogramación
Figura 3. Estructura del sistema operativo THE.
Estructura cliente – servidor
Una tendencia de los sistemas operativos modernos es la de explotar la idea de
mover el código a capas superiores y eliminar la mayor parte posible del sistema
operativo para mantener un núcleo mínimo. El punto de vista usual es el de
implantar la mayoría de las funciones del sistema operativo en los procesos del
usuario. Para solicitar un servicio, como la lectura de un bloque de cierto archivo,
un proceso del usuario (denominado proceso cliente) envía la solicitud a un proceso
servidor, que realiza entonces el trabajo y regresa la respuesta. En este modelo,
que se muestra en la figura 4, lo único que hace el núcleo es controlar la
comunicación entre los clientes y los servidores. Al separar el sistema operativo en
partes, cada una de ellas controla una faceta del sistema, como el servicio a
archivos, servicios a procesos, servicio a terminales o servicio a la memoria, cada
parte es pequeña y controlable. Además como todos los servidores se ejecutan
como procesos en modo usuario y no en modo núcleo, no tienen acceso directo al
hardware. En consecuencia si hay un error en el servidor de archivos, éste puede
fallar,
pero
esto
no
afectará
en
general
a
toda
la
máquina.
(Para ver el gráfico faltante haga click en el menú superior "Bajar Trabajo")
Otra de las ventajas del modelo cliente-servidor es su capacidad de adaptación para
su uso en los sistemas distribuidos.
Si un cliente se comunica con un servidor mediante mensajes, el cliente no necesita
saber si el mensaje se maneja en forma local, en su máquina, o si se envía por
medio de una red a un servidor en una máquina remota. En lo que respecta al
cliente, lo mismo ocurre en ambos casos: se envió una solicitud y se recibió una
respuesta.
SISTEMAS OPERATIVOS
223
3. Funciones y características de los sistemas operativos.
Funciones de los sistemas operativos.
1.-
Aceptar
todos
los
trabajos
y
conservarlos
hasta
su
finalización.
2.- Interpretación de comandos: Interpreta los comandos que permiten al usuario
comunicarse con el ordenador.
3.- Control de recursos: Coordina y manipula el hardware de la computadora, como
la memoria, las impresoras, las unidades de disco, el teclado o el Mouse.
4.- Manejo de dispositivos de E/S: Organiza los archivos en diversos dispositivos de
almacenamiento, como discos flexibles, discos duros, discos compactos o cintas
magnéticas.
5.- Manejo de errores: Gestiona los errores de hardware y la pérdida de datos.
6.- Secuencia de tareas: El sistema operativo debe administrar la manera en que se
reparten los procesos. Definir el orden. (Quien va primero y quien después).
7.- Protección: Evitar que las acciones de un usuario afecten el trabajo que esta
realizando otro usuario.
8.- Multiacceso: Un usuario se puede conectar a otra máquina sin tener que estar
cerca de ella.
9.- Contabilidad de recursos: establece el costo que se le cobra a un usuario por
utilizar determinados recursos.
Características de los sistemas operativos.
En general, se puede decir que un Sistema Operativo tiene las siguientes
características:

Conveniencia. Un Sistema Operativo hace más conveniente el uso de una
computadora.

Eficiencia.
Un
Sistema
Operativo
permite
que
los
recursos
de
la
computadora se usen de la manera más eficiente posible.

Habilidad para evolucionar. Un Sistema Operativo deberá construirse de
manera que permita el desarrollo, prueba o introducción efectiva de nuevas
funciones del sistema sin interferir con el servicio.

Encargado de administrar el hardware. El Sistema Operativo se encarga de
manejar de una mejor manera los recursos de la computadora en cuanto a
hardware se refiere, esto es, asignar a cada proceso una parte del
procesador para poder compartir los recursos.

Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo
se debe encargar de comunicar a los dispositivos periféricos, cuando el
usuario así lo requiera.
SISTEMAS OPERATIVOS
224

Organizar datos para acceso rápido y seguro.

Manejar las comunicaciones en red. El Sistema Operativo permite al usuario
manejar con alta facilidad todo lo referente a la instalación y uso de las
redes de computadoras.

Procesamiento por bytes de flujo a través del bus de datos.

Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al
usuario el acceso y manejo de los dispositivos de Entrada/Salida de la
computadora.
4. Modalidades de trabajo de los sistemas operativos.
Sistemas operativos por lotes.
La secuencia por lotes o procesamiento por lotes en microcomputadoras, es la
ejecución de una lista de comandos del sistema operativo uno tras otro sin
intervención del usuario.
En los ordenadores más grandes el proceso de recogida de programas y de
conjuntos de datos de los usuarios, la ejecución de uno o unos pocos cada vez y la
entrega de los recursos a los usuarios. Procesamiento por lotes también puede
referirse al proceso de almacenar transacciones durante un cierto lapso antes de su
envío a un archivo maestro, por lo general una operación separada que se efectúa
durante la noche.
Los sistemas operativos por lotes (batch), en los que los programas eran tratados
por grupos (lote) en ves de individualmente. La función de estos sistemas
operativos consistía en cargar en memoria un programa de la cinta y ejecutarlo. Al
final este, se realizaba el salto a una dirección de memoria desde donde reasumía
el control del sistema operativo que cargaba el siguiente programa y lo ejecutaba.
De esta manera el tiempo entre un trabajo y el otro disminuía considerablemente.
(Para ver el gráfico faltante haga click en el menú superior "Bajar Trabajo")
Algunas otras características con que cuentan los Sistemas Operativos por lotes
son:

Requiere que el programa, datos y órdenes al sistema sean remitidos todos
juntos en forma de lote.

Permiten poca o ninguna interacción usuario/programa en ejecución.

Mayor potencial de utilización de recursos que procesamiento serial simple
en sistemas multiusuarios.

No conveniente para desarrollo de programas por bajo tiempo de retorno y
depuración fuera de línea.
SISTEMAS OPERATIVOS

225
Conveniente para programas de largos tiempos de ejecución (Ej., análisis
estadísticos, nóminas de personal, etc.)

Se
encuentra
en
muchos
computadores
personales
combinados
con
procesamiento serial.

Planificación del procesador sencilla, típicamente procesados en orden de
llegada.

Planificación de memoria sencilla, generalmente se divide en dos: parte
residente del S.O. y programas transitorios.

No requieren gestión crítica de dispositivos en el tiempo.

Suelen proporcionar gestión sencilla de manejo de archivos: se requiere
poca protección y ningún control de concurrencia para el acceso.
Sistemas operativos de tiempo compartido.
El tiempo compartido en ordenadores o computadoras consiste en el uso de un
sistema por más de una persona al mismo tiempo. El tiempo compartido ejecuta
programas separados de forma concurrente, intercambiando porciones de tiempo
asignadas a cada programa (usuario). En este aspecto, es similar a la capacidad de
multitareas que es común en la mayoría de los microordenadores o las
microcomputadoras. Sin embargo el tiempo compartido se asocia generalmente con
el acceso de varios usuarios a computadoras más grandes y a organizaciones de
servicios, mientras que la multitarea relacionada con las microcomputadoras
implica
la
realización
de
múltiples
tareas
por
un
solo
usuario.
Los principales recursos del sistema, el procesador, la memoria, dispositivos de
E/S, son continuamente utilizados entre los diversos usuarios, dando a cada usuario
la ilusión de que tiene el sistema dedicado para sí mismo. Esto trae como
consecuencia una gran carga de trabajo al Sistema Operativo, principalmente en la
administración de memoria principal y secundaria.
Características de los Sistemas Operativos de tiempo compartido:

Populares representantes de sistemas multiprogramados multiusuario, Ej.:
sistemas de diseño asistido por computador, procesamiento de texto, etc.

Dan la ilusión de que cada usuario tiene una máquina para sí.

La mayoría utilizan algoritmo de reparto circular.

Los programas se ejecutan con prioridad rotatoria que se incrementa con la
espera y disminuye después de concedido el servicio.

Evitan monopolización del sistema asignando tiempos de procesador (time
slot).

Gestión de memoria: proporciona protección a programas residentes.
SISTEMAS OPERATIVOS

226
Gestión de archivo: debe proporcionar protección y control de acceso debido
a que pueden existir múltiples usuarios accesando un mismo archivo.
Sistemas operativos de tiempo real.
Un sistema operativo en tiempo real procesa las instrucciones recibidas al instante,
y una vez que han sido procesadas muestra el resultado. Este tipo tiene relación
con los sistemas operativos monousuarios, ya que existe un solo operador y no
necesita compartir el procesador entre varias solicitudes.
Su característica principal es dar respuestas rápidas; por ejemplo en un caso de
peligro
se
necesitarían
respuestas
inmediatas
para
evitar
una
catástrofe.
Los Sistemas Operativos de tiempo real, cuentan con las siguientes características:

Se dan en entornos en donde deben ser aceptados y procesados gran
cantidad de sucesos, la mayoría externos al sistema computacional, en
breve tiempo o dentro de ciertos plazos.

Se utilizan en control industrial, conmutación telefónica, control de vuelo,
simulaciones en tiempo real., aplicaciones militares, etc.

Su objetivo es proporcionar rápidos tiempos de respuesta.

Procesa ráfagas de miles de interrupciones por segundo sin perder un solo
suceso.

Un proceso se activa tras ocurrencia de suceso, mediante interrupción.

Un proceso de mayor prioridad expropia recursos.

Por tanto generalmente se utiliza planificación expropiativa basada en
prioridades.

Gestión de memoria menos exigente que tiempo compartido, usualmente
procesos son residentes permanentes en memoria.

Población de procesos estática en gran medida.

Poco
movimiento
de
programas
entre
almacenamiento
secundario
y
memoria.

La gestión de archivos se orienta
más a velocidad de acceso que a
utilización eficiente del recurso.
Sistemas operativos de red.
La principal función de un sistema operativo de red es ofrecer un mecanismo para
transferir archivos de una máquina a otra. En este entorno, cada instalación
mantiene su propio sistema de archivos local y si un usuario de la instalación A
quiere acceder a un archivo en la instalación B, hay que copiar explícitamente el
archivo de una instalación a otra.
SISTEMAS OPERATIVOS
227
Internet proporciona un mecanismo para estas transferencias, a través del
programa protocolo de transferencias de archivos FTP (File Transfer Protocol).
Suponga que un usuario quiere copiar un archivo A1, que reside en la instalación B,
a un archivo A2 en la instalación local A. Primero, el usuario debe invocar el
programa
FTP,
el
cual
solicita
al
usuario
la
información
siguiente:
a) El nombre de la instalación a partir de la cual se efectuará la transferencia del
archivo (es decir la instalación B).
b) La información de acceso, que verifica que el usuario tiene los privilegios de
acceso apropiados en la instalación B.
Una vez efectuada esta comprobación, el usuario puede copiar el archivo A1 de B a
A2 en A, ejecutando "get A1 to A2"
En este esquema, la ubicación del archivo no es transparente para el usuario; tiene
que saber exactamente donde esta cada archivo. Además los archivos no se
comparten realmente, porque un usuario solo puede copiar un archivo de una
instalación a otra. Por lo tanto pueden existir varias copias del mismo archivo, lo
que representa un desperdicio de espacio. Así mismo, si se modifican, estas copias
no serán consistentes.
Los Sistemas Operativos de red son aquellos sistemas que mantienen a dos o más
computadoras unidas a través de algún medio de comunicación (físico o no), con el
objetivo primordial de poder compartir los diferentes recursos y la información del
sistema.
El primer Sistema Operativo de red estaba enfocado a equipos con un procesador
Motorola 68000, pasando posteriormente a procesadores Intel como Novell
Netware.
Los Sistemas Operativos de red más ampliamente usados son: Novell Netware,
Personal Netware, LAN Manager, Windows NT Server, UNIX, LANtastic.
Sistemas operativos distribuidos.
En un sistema operativo distribuido los usuarios pueden acceder a recursos remotos
de la misma manera en que lo hacen para los recursos locales. La migración de
datos y procesos de una instalación a otra queda bajo el control del sistema
operativo distribuido.
Permiten distribuir trabajos, tareas o procesos, entre un conjunto de procesadores.
Puede ser que este conjunto de procesadores esté en un equipo o en diferentes, en
este caso es transparente para el usuario. Existen dos esquemas básicos de éstos.
Un sistema fuertemente acoplado es aquel que comparte la memoria y un reloj
global, cuyos tiempos de acceso son similares para todos los procesadores. En un
SISTEMAS OPERATIVOS
228
sistema débilmente acoplado los procesadores no comparten ni memoria ni reloj,
ya que cada uno cuenta con su memoria local.
Los sistemas distribuidos deben de ser muy confiables, ya que si un componente
del sistema se descompone otro componente debe de ser capaz de reemplazarlo.
Entre los diferentes Sistemas Operativos distribuidos que existen tenemos los
siguientes: Sprite, Solaris-MC, Mach, Chorus, Spring, Amoeba, Taos, etc.
Características de los Sistemas Operativos distribuidos:

Colección de sistemas autónomos capaces de comunicación y cooperación
mediante interconexiones hardware y software.

Proporciona abstracción de máquina virtual a los usuarios.

Objetivo clave es la transparencia.

Generalmente proporcionan medios para la compartición global de recursos.
Servicios añadidos: denominación global, sistemas de archivos distribuidos,
facilidades para distribución de cálculos (a través de comunicación de procesos
internodos, llamadas a procedimientos remotos, etc.).
Sistemas operativos multiprocesadores.
En los sistemas multiprocesador, los procesadores comparten la memoria y el
reloj.
Se incrementa la capacidad de procesamiento y la confiabilidad, son
económicos.

Multiprocesamiento simétrico: Cada procesador ejecuta una copia del
sistema operativo.

Multiprocesamiento asimétrico: Cada procesador tiene asignado una tarea
específica,
existe
un
procesador
master
que
asigna
tareas
a
los
procesadores esclavos.
Multiproceso: Las computadoras que tienen más de un CPU son llamadas
multiproceso. Un sistema operativo multiproceso coordina las operaciones de las
computadoras multiprocesadores. Ya que cada CPU en una computadora de
multiproceso puede estar ejecutando una instrucción, el otro procesador queda
liberado para procesar otras instrucciones simultáneamente.
Al usar una computadora con capacidades de multiproceso incrementamos su
velocidad de respuesta y procesos. Casi todas las computadoras que tienen
capacidad de multiproceso ofrecen una gran ventaja.
Los primeros Sistemas Operativos Multiproceso realizaban lo que se conoce como
Multiproceso asimétrico. Una CPU principal retiene el control global de la
SISTEMAS OPERATIVOS
229
computadora, así como el de los otros procesadores. Esto fue un primer paso hacia
el multiproceso pero no fue la dirección ideal a seguir ya que la CPU principal podía
convertirse en un cuello de botella.
Multiproceso simétrico. En un sistema multiproceso simétrico, no existe una CPU
controladora única. La barrera a vencer al implementar el multiproceso simétrico es
que los SO tienen que ser rediseñados o diseñados desde el principio para trabajar
en un ambiente multiproceso. Las extensiones de UNIX, que soportan multiproceso
asimétrico ya están disponibles y las extensiones simétricas se están haciendo
disponibles. Windows NT de Microsoft soporta multiproceso simétrico.
LAS REDES
INTRODUCCIÓN A REDES
¿Que es una Red?
Cada uno de los tres siglos pasados ha estado dominado por una sola tecnología. El
siglo XVIII fue la etapa de los grandes sistemas mecánicos que acompañaron a la
Revolución Industrial. El siglo XIX fue la época de la máquina de vapor. Durante el
siglo XX, la tecnología clave ha sido la recolección, procesamiento y distribución de
información. Entre otros desarrollos, hemos asistido a la instalación de redes
telefónicas en todo el mundo, a la invención de la radio y la televisión, al
nacimiento y crecimiento sin precedente de la industria de los ordenadores (
computadores ), así como a la puesta en órbita de los satélites de comunicación.
A medida que avanzamos hacia los últimos años de este siglo, se ha dado una
rápida convergencia de estas áreas, y también las diferencias entre la captura,
transporte almacenamiento y procesamiento de información están desapareciendo
con rapidez. Organizaciones con centenares de oficinas dispersas en una amplia
área geográfica esperan tener la posibilidad de examinar en forma habitual el
estado actual de todas ellas, simplemente oprimiendo una tecla. A medida que
crece nuestra habilidad para recolectar procesar y distribuir información, la
demanda de mas sofisticados procesamientos de información crece todavía con
mayor rapidez.
La industria de ordenadores ha mostrado un progreso espectacular en muy corto
tiempo. El viejo modelo de tener un solo ordenador para satisfacer todas las
necesidades de cálculo de una organización se está reemplazando con rapidez por
otro
que
considera
un
número
grande
de
ordenadores
separados,
pero
interconectados, que efectúan el mismo trabajo. Estos sistemas, se conocen con el
nombre de redes de ordenadores. Estas nos dan a entender una colección
interconectada de ordenadores autónomos. Se dice que los ordenadores están
interconectados, si son capaces de intercambiar información. La conexión no
necesita hacerse a través de un hilo de cobre, el uso de láser, microondas y
satélites de comunicaciones. Al indicar que los ordenadores son autónomos,
excluimos los sistemas en los que un ordenador pueda forzosamente arrancar,
parar o controlar a otro, éstos no se consideran autónomos.
LAS PRIMERAS REDES
Las primeras redes construidas permitieron la comunicación entre una computadora
central y terminales remotas. Se utilizaron líneas telefónicas, ya que estas
permitían un traslado rápido y económico de los datos. Se utilizaron procedimientos
LAS REDES
232
y protocolos ya existentes para establecer la comunicación y se incorporaron
moduladores y demoduladores para que, una vez establecido el canal físico, fuera
posible transformar las señales digitales en analógicas adecuadas para la
transmisión por medio de un módem.
Posteriormente, se introdujeron equipos de respuesta automática que hicieron
posible el uso de redes telefónicas públicas conmutadas para realizar las conexiones
entre las terminales y la computadora.
A principios de los años 70 surgieron las primeras redes de transmisión de datos
destinadas exclusivamente a este propósito, como respuesta al aumento de la
demanda del acceso a redes a través de terminales para poder satisfacer las
necesidades de funcionalidad, flexibilidad y economía. Se comenzaron a considerar
las ventajas de permitir la comunicación entre computadoras y entre grupos de
terminales, ya que dependiendo de el grado de similitud entre computadoras es
posible permitir que compartan recursos en mayor o menor grado.
La primera red comercial fue la TransCanada Telephone System´s Dataroute, a la
que posteriormente siguió el Digital Data System de AT&T. Estas dos redes, para
beneficio de sus usuarios, redujeron el costo y aumentaron la flexibilidad y
funcionalidad.
Durante los años 60 las necesidades de teleproceso dieron un enfoque de redes
privadas compuesto de líneas ( leased lines ) y concentradores locales o remotos
que usan una topología de estrella.
El concepto de redes de datos públicas emergió simultáneamente. Algunas razones
para favorecer el desarrollo de redes de datos públicas es que el enfoque de redes
privadas es muchas
veces insuficiente para
satisfacer las necesidades de
comunicación de un usuario dado. La falta de interconectabilidad entre redes
privadas y la demanda potencial de información entre ellas en un futuro cercano
favorecen el desarrollo de las redes públicas.
USOS DE LAS REDES DE ORDENADORES
Objetivos de las redes
Las redes en general, consisten en "compartir recursos", y uno de sus objetivo es
hacer que todos los programas, datos y equipo estén disponibles para cualquiera de
la red que así lo solicite, sin importar la localización física del recurso y del usuario.
En otras palabras, el hecho de que el usuario se encuentre a 1000 kilómetros de
distancia de los datos, no debe evitar que este los pueda utilizar como si fueran
originados localmente.
Un segundo objetivo consiste en proporcionar una alta fiabilidad, al contar con
fuentes alternativas de suministro. Por ejemplo todos los archivos podrían
LAS REDES
233
duplicarse en dos o tres máquinas, de tal manera que si una de ellas no se
encuentra disponible, podría utilizarse una de las otras copias. Además, la
presencia de múltiples CPU significa que si una de ellas deja de funcionar, las otras
pueden ser capaces de encargarse de su trabajo, aunque se tenga un rendimiento
global menor.
Otro objetivo es el ahorro económico. Los ordenadores pequeños tienen una mejor
relación costo / rendimiento, comparada con la ofrecida por las máquinas grandes.
Estas son, a grandes rasgos, diez veces mas rápidas que el mas rápido de los
microprocesadores, pero su costo es miles de veces mayor. Este desequilibrio ha
ocasionado que muchos diseñadores de sistemas construyan sistemas constituidos
por poderosos ordenadores personales, uno por usuario, con los datos guardados
una o mas máquinas que funcionan como servidor de archivo compartido.
Este objetivo conduce al concepto de redes con varios ordenadores en el mismo
edificio. A este tipo de red se le denomina LAN ( red de área local ), en contraste
con lo extenso de una WAN ( red de área extendida ), a la que también se conoce
como red de gran alcance.
Un punto muy relacionado es la capacidad para aumentar el rendimiento del
sistema en forma gradual a medida que crece la carga, simplemente añadiendo
mas procesadores.
Con máquinas grandes, cuando el sistema esta lleno, deberá reemplazarse con uno
mas grande, operación que por lo normal genera un gran gasto y una perturbación
inclusive mayor al trabajo de los usuarios.
Otro objetivo del establecimiento de una red de ordenadores, es que puede
proporcionar
un
poderoso
medio
de
comunicación
entre
personas
que
se
encuentran muy alejadas entre si. Con el ejemplo de una red es relativamente fácil
para dos o mas personas que viven en lugares separados, escribir informes juntos.
Cuando un autor hace un cambio inmediato, en lugar de esperar varios días para
recibirlos por carta. Esta rapidez hace que la cooperación entre grupos de
individuos que se encuentran alejados, y que anteriormente había sido imposible de
establecer, pueda realizarse ahora.
En la siguiente tabla se muestra la clasificación de sistemas multiprocesadores
distribuidos de acuerdo con su tamaño físico. En la parte superior se encuentran las
máquinas de flujo de datos, que son ordenadores con un alto nivel de paralelismo y
muchas unidades funcionales trabajando en el mismo programa. Después vienen
los multiprocesadores, que son sistemas que se comunican a través de memoria
compartida. En seguida de los multiprocesadores se muestran verdaderas redes,
que son ordenadores que se comunican por medio del intercambio de mensajes.
LAS REDES
234
Finalmente, a la conexión de dos o mas redes se le denomina interconexión de
redes.
Aplicación de las redes
El reemplazo de una máquina grande por estaciones de trabajo sobre una LAN no
ofrece la posibilidad de introducir muchas aplicaciones nuevas, aunque podrían
mejorarse la fiabilidad y el rendimiento. Sin embargo, la disponibilidad de una WAN
( ya estaba antes ) si genera nuevas aplicaciones viables, y algunas de ellas pueden
ocasionar importantes efectos en la totalidad de la sociedad. Para dar una idea
sobre algunos de los usos importantes de redes de ordenadores, veremos ahora
brevemente tres ejemplos: el acceso a programas remotos, el acceso a bases de
datos remotas y facilidades de comunicación de valor añadido.
Una compañía que ha producido un modelo que simula la economía mundial puede
permitir que sus clientes se conecten usando la red y corran el programa para ver
como pueden afectar a sus negocios las diferentes proyecciones de inflación, de
tasas de interés y de fluctuaciones de tipos de cambio. Con frecuencia se prefiere
este planteamiento que vender los derechos del programa, en especial si el modelo
se está ajustando constantemente ó necesita de una máquina muy grande para
correrlo.
Todas estas aplicaciones operan sobre redes por razones económicas: el llamar a
un ordenador remoto mediante una red resulta mas económico que hacerlo
directamente. La posibilidad de tener un precio mas bajo se debe a que el enlace de
una llamada telefónica normal utiliza un circuito caro y en exclusiva durante todo el
tiempo que dura la llamada, en tanto que el acceso a través de una red, hace que
solo se ocupen los enlaces de larga distancia cuando se están transmitiendo los
datos.
Una tercera forma que muestra el amplio potencial del uso de redes, es su empleo
como medio de comunicación ( Internet ). Como por ejemplo, el tan conocido por
todos, correo electrónico ( e-mail ), que se envía desde una terminal , a cualquier
persona situada en cualquier parte del mundo que disfrute de este servicio. Además
de texto, se pueden enviar fotografías e imágenes.
ESTRUCTURA DE UNA RED
En toda red existe una colección de máquinas para correr programas de usuario (
aplicaciones ). Seguiremos la terminología de una de las primeras redes,
denominada ARPANET, y llamaremos hostales a las máquinas antes mencionadas.
También, en algunas ocasiones se utiliza el término sistema terminal o sistema
final. Los hostales están conectados mediante una subred de comunicación, o
LAS REDES
235
simplemente subred. El trabajo de la subred consiste en enviar mensajes entre
hostales, de la misma manera como el sistema telefónico envía palabras entre la
persona que habla y la que escucha. El diseño completo de la red simplifica
notablemente cuando se separan los aspectos puros de comunicación de la red ( la
subred ), de los aspectos de aplicación ( los hostales ).
Una subred en la mayor parte de las redes de área extendida consiste de dos
componentes diferentes: las líneas de transmisión y los elementos de conmutación.
Las líneas de transmisión ( conocidas como circuitos, canales o troncales ), se
encargan de mover bits entre máquinas.
Los elementos de conmutación son ordenadores especializados que se utilizan para
conectar dos o mas líneas de transmisión. Cuando los datos llegan por una línea de
entrada, el elemento de conmutación deberá seleccionar una línea de salida para
reexpedirlos
TIPOS DE REDES
No existe una taxonomía generalmente aceptada dentro de la cuál quepan todas las
redes de computadoras, pero sobresalen dos dimensiones: la tecnología de
transmisión y la escala. En términos generales hoy dos tipos de tecnología de
transmisión.
· Redes de Difusión.
· Redes de punto.
Las redes de difusión tienen un solo canal de comunicación compartido por todas
las máquinas de la red. Los paquetes cortos ( llamados paquetes ) que envía una
máquina son recibidos por todas las demás. Un campo de dirección dentro del
paquete especifica a quién se dirige. Al recibir el paquete, la máquina verifica el
campo de dirección, si el paquete esta dirigido a ella, lo procesa; si esta dirigido a
otra máquina lo ignora.
Los sistemas de difusión generalmente también ofrecen la posibilidad de dirigir un
paquete a todos los destinos colocando un código especial en el campo de
dirección. Cuando se transmite un paquete con este código, cada máquina en la red
lo recibe y lo procesa. Este modo de operación se llama difusión ( broadcasting ).
Algunos sistemas de difusión también contemplan la transmisión a un subconjunto
de las máquinas, algo que se conoce como multidifusión.
Las redes de punto a punto consisten en muchas conexiones entre pares
individuales de máquinas. Para ir del origen al destino un paquete en este tipo de
red puede tener que visitar una ó más máquinas intermedias. A veces son posibles
múltiples rutas de diferentes longitudes, por lo que los algoritmos de ruteo son muy
importantes en estas redes.
LAS REDES
236
EJEMPLO DE REDES
Un número muy grande de redes se encuentran funcionando, actualmente, en todo
el mundo, algunas de ellas son redes públicas operadas por proveedores de
servicios portadores comunes o PTT, otras están dedicadas a la investigación,
también hay redes en cooperativas operadas por los mismos usuarios y redes de
tipo comercial o corporativo.
Las redes, por lo general, difieren en cuanto a su historia, administración, servicios
que ofrecen, diseño técnico y usuarios. La historia y la administración pueden variar
desde una red cuidadosamente elaborada por una sola organización, con un
objetivo muy bien definido, hasta una colección específica de máquinas, cuya
conexión se fue realizando con el paso del tiempo, sin ningún plan maestro o
administración central que la supervisara. Los servicios ofrecidos van desde una
comunicación arbitraria de proceso a proceso, hasta llegar al correo electrónico, la
transferencia de archivos, y el acceso y ejecución remota. Los diseños técnicos se
diferencian
en
el
medio
de
transmisión
empleado,
los
algoritmos
de
encaminamiento y de denominación utilizados, el número y contenido de las capas
presentes y los protocolos usados. Por último, las comunidades de usuarios pueden
variar desde una sola corporación, hasta aquella que incluye todos los ordenadores
científicos que se encuentren en el mundo industrializado.
Redes de comunicación:
La posibilidad de compartir con carácter universal la información entre grupos de
computadoras y sus usuarios; un componente vital de la era de la información. La
generalización de la computadora personal ( PC ) y de la red de área local ( LAN )
durante la década de los ochenta ha dado lugar a la posibilidad de acceder a
información en bases de datos remotas; cargar aplicaciones desde puntos de
ultramar; enviar mensajes a otros países y compartir ficheros, todo ello desde una
computadora personal.
Las redes que permiten todo esto son equipos avanzados y complejos. Su eficacia
se basa en la confluencia de muy diversos componentes. El diseño e implantación
de una red mundial de ordenadores es uno de los grandes milagros tecnológicos de
las últimas décadas.
Módems y empresas de servicios:
Todavía en la década de los setenta las computadoras eran máquinas caras y
frágiles que estaban al cuidado de especialistas y se guardaban en recintos
vigilados. Para utilizarlos se podía conectar un terminal directamente o mediante
una línea telefónica y un módem para acceder desde un lugar remoto. Debido a su
LAS REDES
237
elevado costo, solían ser recursos centralizados a los que el usuario accedía por
cuenta propia. Durante esta época surgieron muchas organizaciones, las empresas
de servicios, que ofrecían tiempo de proceso en una mainframe. Las redes de
computadoras no estaban disponibles comercialmente. No obstante, se inició en
aquellos años uno de los avances más significativos para el mundo de la tecnología:
los experimentos del Departamento de Defensa norteamericano con vistas a
distribuir los recursos informáticos como protección contra los fallos. Este proyecto
se llama ahora Internet.
Redes de área local ( LAN )
Uno de los sucesos más críticos para la conexión en red lo constituye la aparición y
la rápida difusión de la red de área local ( LAN ) como forma de normalizar las
conexiones entre las máquinas que se utilizan como sistemas ofimáticos. Como su
propio nombre indica, constituye una forma de interconectar una serie de equipos
informáticos. A su nivel más elemental, una LAN no es más que un medio
compartido (como un cable coaxial al que se conectan todas las computadoras y las
impresoras) junto con una serie de reglas que rigen el acceso a dicho medio. La
LAN más difundida, la Ethernet, utiliza un mecanismo denominado Call Sense
Multiple Access-Collision Detect ( CSMS-CD ). Esto significa que cada equipo
conectado sólo puede utilizar el cable cuando ningún otro equipo lo está utilizando.
Si hay algún conflicto, el equipo que está intentando establecer la conexión la anula
y efectúa un nuevo intento más adelante. La Ethernet transfiere datos a 10
Mbits/seg, lo suficientemente rápido como para hacer inapreciable la distancia entre
los diversos equipos y dar la impresión de que están conectados directamente a su
destino.
Ethernet y CSMA-CD son dos ejemplos de LAN. Hay tipologías muy diversas ( bus,
estrella, anillo ) y diferentes protocolos de acceso. A pesar de esta diversidad, todas
las LAN comparten la característica de poseer un alcance limitado ( normalmente
abarcan un edificio ) y de tener una velocidad suficiente para que la red de
conexión resulte invisible para los equipos que la utilizan.
Además de proporcionar un acceso compartido, las LAN modernas también
proporcionan al usuario multitud de funciones avanzadas. Hay paquetes de
software de gestión para controlar la configuración de los equipos en la LAN, la
administración de los usuarios, y el control de los recursos de la red. Una estructura
muy utilizada consiste en varios servidores a disposición de distintos ( con
frecuencia, muchos ) usuarios. Los primeros, por lo general máquinas más
potentes, proporcionan servicios como control de impresión, ficheros compartidos y
correo a los últimos, por lo general computadoras personales.
LAS REDES
238
Routers y bridges
Los servicios en la mayoría de las LAN son muy potentes. La mayoría de las
organizaciones
no
desean
encontrarse
con
núcleos
aislados
de
utilidades
informáticas. Por lo general prefieren difundir dichos servicios por una zona más
amplia, de manera que los grupos puedan trabajar independientemente de su
ubicación. Los routers y los bridges son equipos especiales que permiten conectar
dos o más LAN. El bridge es el equipo más elemental y sólo permite conectar varias
LAN de un mismo tipo. El router es un elemento más inteligente y posibilita la
interconexión de diferentes tipos de redes de ordenadores.
Las grandes empresas disponen de redes corporativas de datos basadas en una
serie de redes LAN y routers. Desde el punto de vista del usuario, este enfoque
proporciona
una
red
físicamente
heterogénea
con
aspecto
de
un
recurso
homogéneo.
Redes de área extensa ( WAN )
Cuando se llega a un cierto punto deja de ser poco práctico seguir ampliando una
LAN. A veces esto viene impuesto por limitaciones físicas, aunque suele haber
formas más adecuadas o económicas de ampliar una red de computadoras. Dos de
los componentes importantes de cualquier red son la red de teléfono y la de datos.
Son enlaces para grandes distancias que amplían la LAN hasta convertirla en una
red de área extensa ( WAN ). Casi todos los operadores de redes nacionales ( como
DBP en Alemania o British Telecom en Inglaterra ) ofrecen servicios para
interconectar redes de computadoras, que van desde los enlaces de datos sencillos
y a baja velocidad que funcionan basándose en la red pública de telefonía hasta los
complejos servicios de alta velocidad ( como frame relay y SMDS-Synchronous
Multimegabit Data Service ) adecuados para la interconexión de las LAN. Estos
servicios de datos a alta velocidad suelen denominarse conexiones de banda ancha.
Se prevé que proporcionen los enlaces necesarios entre LAN para hacer posible lo
que han dado en llamarse autopistas de la información.
Proceso distribuido:
Parece lógico suponer que las computadoras podrán trabajar en conjunto cuando
dispongan de la conexión de banda ancha. ¿Cómo conseguir, sin embargo, que
computadoras de diferentes fabricantes en distintos países funcionen en común a
través de todo el mundo? Hasta hace poco, la mayoría de las computadoras
disponían de sus propias interfaces y presentaban su estructura particular. Un
equipo podía comunicarse con otro de su misma familia, pero tenía grandes
LAS REDES
239
dificultades para hacerlo con un extraño. Sólo los más privilegiados disponían del
tiempo, conocimientos y equipos necesarios para extraer de diferentes recursos
informáticos aquello que necesitaban.
En los años noventa, el nivel de concordancia entre las diferentes computadoras
alcanzó el punto en que podían interconectarse de forma eficaz, lo que le permite a
cualquiera sacar provecho de un equipo remoto. Los principales componentes son:
Cliente/servidor
En vez de construir sistemas informáticos como elementos monolíticos, existe el
acuerdo general de construirlos como sistemas cliente/servidor. El cliente ( un
usuario de PC ) solicita un servicio ( como imprimir ) que un servidor le proporciona
( un procesador conectado a la LAN ). Este enfoque común de la estructura de los
sistemas informáticos se traduce en una separación de las funciones que
anteriormente forman un todo. Los detalles de la realización van desde los
planteamientos sencillos hasta la posibilidad real de manejar todos los ordenadores
de modo uniforme.
Tecnología de objetos:
Otro de los enfoques para la construcción de los sistemas parte de la hipótesis de
que deberían estar compuestos por elementos perfectamente definidos, objetos
encerrados, definidos y materializados haciendo de ellos agentes independientes.
La adopción de los objetos como medios para la construcción de sistemas
informáticos ha colaborado a la posibilidad de intercambiar los diferentes
elementos.
Sistemas abiertos
Esta definición alude a sistemas informáticos cuya arquitectura permite una
interconexión y una distribución fáciles. En la práctica, el concepto de sistema
abierto se traduce en desvincular todos los componentes de un sistema y utilizar
estructuras análogas en todos los demás. Esto conlleva una mezcla de normas (
que indican a los fabricantes lo que deberían hacer ) y de asociaciones ( grupos de
entidades afines que les ayudan a realizarlo ). El efecto final es que sean capaces
de hablar entre sí.
El objetivo último de todo el esfuerzo invertido en los sistemas abiertos consiste en
que cualquiera pueda adquirir computadoras de diferentes fabricantes, las coloque
donde quiera, utilice conexiones de banda ancha para enlazarlas entre sí y las haga
funcionar como una máquina compuesta capaz de sacar provecho de las conexiones
de alta velocidad.
LAS REDES
240
Seguridad y gestión:
El hecho de disponer de rápidas redes de computadoras capaces de interconectarse
no constituye el punto final de este enfoque. Quedan por definir las figuras del
"usuario de la autopista de la información" y de los "trabajos de la autovía de la
información".
Seguridad
La seguridad informática va adquiriendo una importancia creciente con el aumento
del volumen de información importante que se halla en las computadoras
distribuidas. En este tipo de sistemas resulta muy sencillo para un usuario experto
acceder subrepticiamente a datos de carácter confidencial. La norma Data
Encryption System ( DES ) para protección de datos informáticos, implantada a
finales de los años setenta, se ha visto complementada recientemente por los
sistemas de clave pública que permiten a los usuarios codificar y descodificar con
facilidad los mensajes sin intervención de terceras personas.
Gestión
La labor de mantenimiento de la operativa de una LAN exige dedicación completa.
Conseguir que una red distribuida por todo el mundo funcione sin problemas
supone un reto aún mayor. Últimamente se viene dedicando gran atención a los
conceptos básicos de la gestión de redes distribuidas y heterogéneas. Hay ya
herramientas suficientes para esta importante parcela que permiten supervisar de
manera eficaz las redes globales.
Las redes de ordenadores:
Definir el concepto de redes implica diferenciar entre el concepto de redes físicas y
redes de comunicación.
Respecto a la estructura física, los modos de conexión física, los flujos de datos,
etc; podemos decir que una red la constituyen dos o más ordenadores que
comparten determinados recursos, sea hardware ( impresoras, sistemas de
almacenamiento, ... ) sea software ( aplicaciones, archivos, datos... ).
Desde una perspectiva más comunicativa y que expresa mejor lo que puede
hacerse con las redes en la educación, podemos decir que existe una red cuando
están involucrados un componente humano que comunica, un componente
tecnológico ( ordenadores, televisión, telecomunicaciones ) y un componente
administrativo ( institución o instituciones que mantienen los servicios ). Una red,
más que varios ordenadores conectados, la constituyen varias personas que
LAS REDES
241
solicitan, proporcionan e intercambian experiencias e informaciones a través de
sistemas de comunicación.
Atendiendo al ámbito que abarcan, tradicionalmente se habla de:
Redes de Área Local ( conocidas como LAN ) que conectan varias estaciones dentro
de la misma institución,
Redes de Área Metropolitana ( MAN ),
Area extensa ( WAN ),
Por su soporte físico:
Redes de fibra óptica,
Red de servicios integrados ( RDSI ),
Si nos referimos a las redes de comunicación podemos hablar de Internet, BITNET,
USENET FIDONET o de otras grandes redes. Pero, en el
fondo, lo que
verdaderamente nos debe interesar como educadores es el flujo y el tipo de
información que en estas redes circula. Es decir, que las redes deben ser lo más
transparentes posibles, de tal forma que el usuario final no requiera tener
conocimiento de la tecnología ( equipos y programas ) utilizada para la
comunicación ( o no debiera, al menos ).
Las distintas configuraciones tecnológicas y la diversidad de necesidades planteadas
por los usuarios, lleva a las organizaciones a presentar cierta versatilidad en el
acceso a la documentación, mediante una combinación de comunicación sincrónica
y asincrónica.
La comunicación sincrónica ( o comunicación a tiempo real ) contribuiría a motivar
la comunicación, a simular las situaciones, cara a cara, mientras que la
comunicación asincrónica ( o retardada ) ofrece la posibilidad de participar e
intercambiar
información
desde
cualquier
sitio
y
en
cualquier
momento,
permitiendo a cada participante trabajar a su propio ritmo y tomarse el tiempo
necesario
para
leer,
reflexionar,
escribir y
revisar
antes
de
compartir
la
información. Ambos tipos de comunicación son esenciales en cualquier sistema de
formación apoyado en redes.
Se trataría, por lo tanto, de configurar servicios educativos o, mejor, redes de
aprendizaje apoyados en:
Videoconferencia que posibilitaría la asistencia remota a sesiones de clase
presencial, a actividades específicas para alumnos a distancia, o a desarrollar
trabajo colaborativo en el marco de la presencia continuada.
Conferencias electrónicas, que basadas en el ordenador posibilitan la comunicación
escrita sincrónica, complementando y/o extendiendo las posibilidades de la
intercomunicación a distancia.
LAS REDES
242
Correo electrónico, listas de discusión,... que suponen poderosas herramientas para
facilitar la comunicación asincrónica mediante ordenadores.
Apoyo hipermedia ( Web ) que servirá de banco de recursos de aprendizaje donde
el alumno pueda encontrar los materiales además de orientación y apoyo.
Otras aplicaciones de Internet tanto de recuperación de ficheros ( Gopher, FTP, ... )
como de acceso remoto ( telnet... ).
Ello implica, junto a la asistencia virtual a sesiones en la institución sean específicas
o no mediante la videoconferencia y la posibilidad de presencia continuada, facilitar
la transferencia de archivos ( materiales básicos de aprendizaje, materiales
complementarios, la consulta a materiales de referencia ) entre la sede ( o sedes,
reales o virtuales ) y los usuarios.
Aunque el sistema de transferencia es variado dependiendo de múltiples factores (
tipo de documento, disponibilidad tecnológica del usuario,... ), está experimentando
una utilización creciente la transferencia directamente a pantalla de materiales
multimedia interactivos a distancia como un sistema de enseñanza a distancia a
través de redes.
Pero, también, utilizando otr2os sistemas de transferencia puede accederse a una
variada gama de materiales de aprendizaje. Se trata, en todo caso, de un proceso
en dos fases: primero recuperación y después presentación.
REDES DE AREA AMPLIA ( WAN - WIDE AREA NETWORK )
Una WAN se extiende sobre un área geográfica amplia, a veces un país o un
continente; contiene una colección de máquinas dedicadas a ejecutar programas de
usuario ( aplicaciones ), estas maquinas se llaman Hosts. Los hosts están
conectados por una subred de comunicación. El trabajo de una subred es conducir
mensajes de un host a otro. La separación entre los aspectos exclusivamente de
comunicación de la red ( la subred ) y los aspectos de aplicación ( hosts ),
simplifica enormemente el diseño total de la red.
En muchas redes de área amplia, la subred tiene dos componentes distintos: las
líneas de transmisión y los elementos de conmutación. Las líneas de transmisión (
también llamadas circuitos o canales ) mueven los bits de una máquina a otra.
Los elementos de conmutación son computadoras especializadas que conectan dos
o más lineas de transmisión.. Cuando los datos llegan por una línea de entrada, el
elemento de conmutación debe escoger una línea de salida para enviarlos. Como
término gen´ñerico para las computadoras de conmutacion, les llamaremos
enrutadores.
LAS REDES
243
CONSTITUCION DE UNA RED DE AREA AMPLIA ( WAN )
La red consiste en ECD ( computadores de conmutación ) interconectados por
canales alquilados de alta velocidad ( por ejemplo, líneas de 56 kbit / s ). Cada ECD
utiliza un protocolo responsable de encaminar correctamente los datos y de
proporcionar soporte a los computadores y terminales de los usuarios finales
conectados a los mismos. La función de soporte ETD ( Terminales / computadores
de usuario ). La función soporte del ETD se denomina a veces PAD ( Packet
Assembly / Disasembly – ensamblador / desensamblador de paquetes ). Para los
ETD, el ECD es un dispositivo que los aisla de la red. El centro de control de red (
CCR ) es el responsable de la eficiencia y fiabilidad de las operaciones de la red.
CARACTERISTICAS DE UNA RED DE COBERTURA AMPLIA
Los canales suelen proporcionarlos las compañías telefónicas ( como la propia
Compañía Telefónica Española ), con un determinado coste mensual si las líneas
son alquiladas, y un costes proporcional a la utilización si son líneas normales
conmutadas.
Los enlaces son relativamente lentos ( de 1200 Kbit / s a 1.55Mbit / s ).
Las conexiones de los ETD con los ECD son generalmente más lentas ( 150 bit / s a
19.2 kbit / s ).
LOS ETD y los ECD están separados por distancias que varían desde algunos
kilómetros hasta cientos de kilómetros.
Las líneas son relativamente propensas a errores ( si se utilizan circuitos telefónicos
convencionales ).
Las redes de área local ( LAN ) son significativamente diferentes de las redes de
cobertura amplia. El sector de las LAN es uno de los de más rápido crecimiento en
la industria de las comunicaciones. Las redes de área local poseen las siguientes las
características.
Generalmente, los canales son propiedad del usuario o empresa.
Los enlaces son líneas ( desde 1 Mbit / s hasta 400 Mbit / s ). Los ETDs se conectan
a la red vía canales de baja velocidad ( desde 600 bit / s hasta 56 Kbit / s ).
Los ETD están cercanos entre sí, generalmente en un mismo edificio.
Puede utilizarse un ECD para conmutar entre diferentes configuraciones, pero no
tan frecuentemente como en las WAN.
Las líneas son de mejor calidad que los canales en las WAN.
Debido a las diferencias entre las redes de área local y las redes de cobertura
amplia, sus topologías pueden tomar formas muy diferentes.
La estructura de las WAN tiende a ser más irregular, debido a la necesidad de
conectar múltiples terminales, computadores y centros de conmutación. Como los
LAS REDES
244
canales están alquilados mensualmente ( a un precio considerable ), las empresas y
organizaciones que los utilizan tienden a mantenerlos lo más ocupados posible.
Para ello, a menudo los canales "serpentean" por una determinada zona geográfica
para conectarse a los ETD allí donde estén. Debido a eso la topología de las WAN
suele ser más irregular.
Por el contrario el propietario de una LAN no tiene que preocuparse de utilizar al
máximo los canales, ya que son baratos en comparación con su capacidad de
transmisión ( los cuellos de botella en las LAN suelen estar en el SOFTWARE ). Por
tanto, no es tan crítica la necesidad de esquemas muy eficientes de multiplexado y
multidistribución. Además, como las redes de área local que residen en un mismo
edificio, la topología tiende a ser más ordenada y estructurada, con configuraciones
en forma de bus, anillo o estrella.
COMPONENTES FÍSICOS
Línea de Comunicación: Medios físicos para conectar una posición con otra con el
propósito de transmitir y recibir datos.
Hilos de Transmisión: En comunicaciones telefónicas se utiliza con frecuencia el
termino "pares" para describir el circuito que compone un canal. Uno de los hilos
del par sirve para transmitir o recibir los datos, y el otro es la línea de retorno
eléctrico.
CLASIFICACION LÍNEAS DE CONMUTACIÓN
Líneas Conmutadas: Líneas que requieren de marcar un código para establecer
comunicación con el otro extremo de la conexión.
Líneas Dedicadas: Líneas de comunicación que mantienen una permanente
conexión entre dos o más puntos. Estas pueden ser de dos o cuatro hilos.
Líneas Punto a Punto: Enlazan dos DTE
Líneas Multipunto: Enlazan tres o más DTE
Líneas Digitales: En este tipo de línea, los bits son transmitidos en forma de
señales digitales. Cada bit se representa por una variación de voltaje y esta se
realiza mediante codificación digital en la cual los códigos más empleados son:
NRZ (NON RETURN TO ZERO) UNIPOLAR
La forma de onda binaria que utilizan normalmente las computadoras se llama
Unipolar, es decir, que el voltaje que representa los bits varia entre 0 voltios y +5
voltios. Se denomina NRZ porque el voltaje no vuelve a cero entre bits consecutivos
de valor uno. Este tipo de código es inadecuado en largas distancias debido a la
presencia de niveles residuales de corriente continua y a la posible ausencia de
LAS REDES
245
suficientes números de transiciones de señal para permitir una recuperación fiable
de una señal de temporización.
Código NRZ Polar: Este código desplaza el nivel de referencia de la señal al punto
medio de la amplitud de la señal. De este modo se reduce a la mitad la potencia
requerida para transmitir la señal en comparación con el Unipolar.
Transmisión Bipolar o AMI ( Alternate Marks Inverted ): Es uno de los
códigos más empleados en la transmisión digital a través de redes WAN. Este
formato no tiene componente de corriente continua residual y su potencia a
frecuencia cero es nula. Se verifican estos requisitos transmitiendo pulsos con un
ciclo de trabajo del 50% e invirtiendo alternativamente la polaridad de los bits 1
que se transmiten. Dos valores positivos sin alternancia entre ellos serán
interpretados como un error en la línea. los 0's son espacios sin presencia de
voltaje. El formato Bipolar es en realidad una señal de tres estados ( +V, 0, -V ).
INTERFACES
RS-232 en 23 Y 9 Pines: Define una interfaz no balanceada empleando un
intercambio en serie de datos binarios a velocidades de transmisión superiores a los
20,000 bps, opera con datos sincronos pero está limitada por una longitud de cable
de aprox. 50 pies.
V.35: Especifica una interfaz sincrono para operar a velocidades superiores a 1
Mbps. Este interfaz utiliza la mezcla de dos señales no balanceadas para control y
de señales balanceadas para la sincronización y envío/recepción de los datos lo que
facilita trabajar a latas velocidades.
TIPOS DE REDES WAN
Conmutadas por Circuitos: Redes en las cuales, para establecer comunicación se
debe efectuar una llamada y cuando se establece la conexión, los usuarios disponen
de un enlace directo a través de los distintos segmentos de la red.
Conmutadas por Mensaje: En este tipo de redes el conmutador suele ser un
computador que se encarga de aceptar tráfico de los computadores y terminales
conectados a él. El computador examina la dirección que aparece en la cabecera del
mensaje hacia el DTE que debe recibirlo. Esta tecnología permite grabar la
información para atenderla después. El usuario puede borrar, almacenar, redirigir o
contestar el mensaje de forma automática.
Conmutadas por Paquetes: En este tipo de red los datos de los usuarios se
descomponen en trozos más pequeños. Estos fragmentos o paquetes, estás
insertados dentro de informaciones del protocolo y recorren la red como entidades
independientes.
LAS REDES
246
Redes Orientadas a Conexión: En estas redes existe el concepto de multiplexión
de canales y puertos conocido como circuito o canal virtual, debido a que el usuario
aparenta disponer de un recurso dedicado, cuando en realidad lo comparte con
otros pues lo que ocurre es que atienden a ráfagas de tráfico de distintos usuarios.
Redes no orientadas a conexión: Llamadas Datagramas, pasan directamente del
estado libre al modo de transferencia de datos. Estas redes no ofrecen
confirmaciones, control de flujo ni recuperación de errores aplicables a toda la red,
aunque estas funciones si existen para cada enlace particular. Un ejemplo de este
tipo de red es INTERNET.
Red Publica de Conmutación Telefónica ( PSTN ): Esta red fue diseñada
originalmente para el uso de la voz y sistemas análogos. La conmutación consiste
en el establecimiento de la conexión previo acuerdo de haber marcado un número
que corresponde con la identificación numérica del punto de destino.
TOPOLOGIAS
Para poder visualizar el sistema de comunicación en una red es conveniente utilizar
el concepto de topología, o estructura física de la red. Las topologías describen la
red físicamente y también nos dan información acerca de el método de acceso que
se usa ( Ethernet, Token Ring, etc. ).
1. TOPOLOGIA DE REDES WAN
Cuando se usa una subred punto a punto, una consideración de diseño
importante es la topología de interconexión del enrutador. La siguiente
figura muestra algunas posibles topologías. Las redes WAN típicamente
tienen topologías irregulares.
Posibles topologías para una subred punto a punto. ( a ) Estrella. ( b ) Anillo. ( c )
Arbol. ( d ) Completa.
( e ) Intersección de anillos. ( f ) Irregular.
Configuración de estrella
En este esquema, todas las estaciones están conectadas por un cable a un módulo
central ( Central hub ), y como es una conexión de punto a punto, necesita un
cable desde cada PC al módulo central. Una ventaja de usar una red de estrella es
que ningún punto de falla inhabilita a ninguna parte de la red, sólo a la porción en
donde ocurre la falla, y la red se puede manejar de manera eficiente. Un problema
que sí puede surgir, es cuando a un módulo le ocurre un error, y entonces todas las
estaciones se ven afectadas.
LAS REDES
247
Configuración de anillo
En esta configuración, todas las estaciones repiten la misma señal que fue
mandada por la terminal transmisora, y lo hacen en un solo sentido en la red. El
mensaje se transmite de terminal a terminal y se repite, bit por bit, por el repetidor
que se encuentra conectado al controlador de red en cada terminal. Una desventaja
con esta topología es que si algún repetidor falla, podría hacer que toda la red se
caiga, aunque el controlador puede sacar el repetidor defectuoso de la red, así
evitando algún desastre. Un buen ejemplo de este tipo de topología es el de Anillo
de señal, que pasa una señal, o token a las terminales en la red. Si la terminal
quiere transmitir alguna información, pide el token, o la señal. Y hasta que la tiene,
puede transmitir. Claro, si la terminal no está utilizando el token, la pasa a la
siguiente terminal que sigue en el anillo, y sigue circulando hasta que alguna
terminal pide permiso para transmitir.
(Para ver el gráfico faltante haga lick en el menú superior "Bajar Trabajo")
Topología de bus
También conocida como topología lineal de bus, es un diseño simple que utiliza un
solo cable al cual todas las estaciones se conectan. La topología usa un medio de
transmisión de amplia cobertura ( broadcast medium ), ya que todas las estaciones
pueden recibir las transmisiones emitidas por cualquier estación. Como es bastante
simple la configuración, se puede implementar de manera barata. El problema
inherente de este esquema es que si el cable se daña en cualquier punto, ninguna
estación podrá transmitir. Aunque Ethernet puede tener varias configuraciones de
cables, si se utiliza un cable de bus, esta topología representa una red de Ethernet.
Topología de árbol
Esta topología es un ejemplo generalizado del esquema de bus. El árbol tiene su
primer nodo en la raíz, y se expande para afuera utilizando ramas, en donde se
encuentran conectadas las demás terminales. Ésta topología permite que la red se
expanda, y al mismo tiempo asegura que nada más existe una "ruta de datos" (
data path ) entre 2 terminales cualesquiera.
Generalidades
Una red de área amplia o WAN ( Wide Area Network ), se extiende sobre un área
geográfica extensa, a veces un país o un continente; contiene un número variado
de hosts dedicadas a ejecutar programas de usuario ( de aplicación ). Las hosts
están conectadas por una de subred comunicación, o simplemente subred. El
trabajo de la subred es conducir mensajes de una host a otra.
LAS REDES
248
En muchas redes WAN, la subred tiene dos componentes distintos: las líneas de
transmisión y los elementos de conmutación. Las líneas de transmisión ( circuitos,
canales o troncales ) mueven bits de una máquina a otra.
Los elementos de conmutación son computadoras especializadas que conectan dos
o más líneas de transmisión. Cuando los datos llegan por una línea de entrada, el
elemento de conmutación debe escoger una línea de salida para reenviarlos.
Aunque no existe una terminología estándar para designar estas computadoras, se
les denomina nodos conmutadores de paquetes, sistemas intermedios y centrales
de conmutación de datos. También es posible llamarles simplemente enrutadores.
En casi todas las WAN, la red contiene numerosos cables o líneas telefónicas, cada
una conectada a un par de enrutadores. Si dos enrutadores que no comparten un
cable desean comunicarse, deberán hacerlo indirectamente, por medio de otros dos
enrutadores. Cuando se envía un paquete de un enrutador a otro a través de uno o
más enrutadores intermedios, el paquete se recibe completo en cada enrutador
intermedio, se almacena hasta que la línea de salida requerida está libre, y a
continuación se reenvía. Una subred basada en este principio se llama, de punto a
punto, de almacenar y reenviar, o de paquete conmutado. Casi todas las redes de
área amplia ( excepto aquellas que usan satélites ) tienen subredes de almacenar y
reenviar. Cuando los paquetes son pequeños y el tamaño de todos es el mismo,
suelen llamarse celdas.
Una posibilidad para una WAN es un sistema de satélite o de radio en tierra. Cada
enrutador tiene una antena por medio de la cual puede enviar y recibir. Todos los
enrutadores pueden oír las salidas enviadas desde el satélite y en algunos casos
pueden oír también la transmisión ascendente de los otros enrutadores hacia el
satélite. Algunas veces los enrutadores están conectados a una subred punto a
punto de gran tamaño, y únicamente algunos de ellos tienen una antena de
satélite. Por su naturaleza la redes de satélite son de difusión y son más útiles
cuando la propiedad de difusión es importante.
En este tipo de conexión, los enrutadores se conectan a las líneas analógicas a
través de módem o a líneas digitales a través de Unidades de Servicio de
Canal/Unidades de Servicio de Datos ( CSU / DSUs: Channel Service Unit / Data
Service Units ). El tipo de servicio de transmisión determina la clase de equipo que
el área extensa necesita para su funcionamiento.
2. Líneas Dedicadas y Líneas Conmutadas
Las redes WAN pueden incluir tanto líneas dedicadas como líneas conmutadas.
Una
línea
dedicada
es
una
conexión
normalmente se alquila por meses.
permanente
entre
dos
puntos
que
LAS REDES
249
Un servicio de línea conmutada no requiere conexiones permanentes entre dos
puntos fijos. En su lugar, permite a los usuarios establecer conexiones temporales
entre múltiples puntos cuya duración corresponde a la de la transmisión de datos.
Existen dos tipos de servicios conmutados: servicios de conmutación de circuitos,
similares a los servicios utilizados en las llamadas telefónicas; y los servicios de
conmutación de paquetes, que se ajustan mejor a la transmisión de datos.
Servicios de conmutación de circuitos
En una conexión de conmutación de circuitos se establece un canal dedicado,
denominado circuito, entre dos puntos por el tiempo que dura la llamada. El circuito
proporciona una cantidad fija de ancho de banda durante la llamada y los usuarios
sólo pagan por esa cantidad de ancho de banda el tiempo que dura la llamada.
Las conexiones de conmutación de circuitos tienen dos serios inconvenientes. El
primero es que debido a que el ancho de banda en estas conexiones es fijo, no
manejan
adecuadamente
las
avalanchas
de
tráfico,
requiriendo
frecuentes
retransmisiones. El segundo inconveniente es que estos circuitos virtuales sólo
tienen una ruta, sin caminos alternativos definidos. Por esta razón cuando una línea
se cae, es necesario que un usuario intervenga reencamine el tráfico manualmente
o se detiene la transmisión.
Servicios de conmutación de paquetes
Los servicios de conmutación de paquetes suprimen el concepto de circuito virtual
fijo. Los datos se transmiten paquete a paquete a través del entramado de la red o
nube, de manera que cada paquete puede tomar un camino diferente a través de la
red. Como no existe un circuito virtual predefinido, la conmutación de paquetes
puede aumentar o disminuir el ancho de banda según sea necesario, pudiendo
manejar adecuadamente las avalanchas de paquetes de forma adecuada. Los
servicios de conmutación de paquetes son capaces de enrutar los paquetes,
evitando las líneas caídas o congestionadas, debido a los múltiples caminos en la
red.
3. Redes Públicas
Las redes públicas son los recursos de telecomunicación de área extensa
pertenecientes a las operadoras y ofrecidos a los usuarios a través de suscripción.
Estas operadoras incluyen a:

Compañías de servicios de comunicación local. Entre estas compañías
tenemos a TELCOR.
LAS REDES

250
Compañías de servicios de comunicación a larga distancia. Una compañía de
comunicación a larga distancia ( IXC: Interexchange carriers ) es un
operador de telecomunicaciones que suministra servicios de larga distancia
como AT&T, MCI y US SPRINT.

Proveedores de servicios de valor añadido. Los proveedores de servicio de
valor añadido ( VACs: Value-added carriers ) como CompuServe Information
y
GE
Information
Services,
ofrecen
con
frecuencia,
servicios
de
comunicación de área amplia como complemento a su verdadero negocio.
4. Redes Privadas
Una red privada es una red de comunicaciones privada construida, mantenida y
controlada por la organización a la que sirve. Como mínimo una red privada
requiere sus propios equipos de conmutación y de comunicaciones. Puede también,
emplear sus propios servicios de comunicación o alquilar los servicios de una red
pública o de otras redes privadas que hayan construido sus propias líneas de
comunicaciones.
Aunque una red privada es extremadamente cara, en compañías donde la
seguridad es imperante así como también lo es el control sobre el tráfico de datos,
las líneas privadas constituyen la única garantía de un alto nivel de servicio.
Además, en situaciones donde el tráfico de datos entre dos puntos remotos excede
de seis horas al día, emplear una red privada puede ser más rentable que utilizar la
red pública.
5. Líneas Analógicas
Las líneas analógicas son las típicas líneas de voz desarrolla das inicialmente para
llevar tráfico de voz. Este tipo de líneas son parte del servicio telefónico tradicional,
por lo que se encuentran en cualquier lugar. Aunque el tráfico de datos digitales no
es compatible con las señales de portadora analógica, se puede transmitir tráfico
digital sobre líneas analógicas utilizando un módem, el cual modula las señales
digitales sobre servicios de portadora analógica. La máxima tasa de transferencia
de tráfico digital posible sobre líneas analógicas está en 43,000 bps.
6. Líneas Digitales
Las líneas digitales están diseñadas para transportar tráfico de datos, que es digital
por naturaleza. En vez de utilizar un módem para cargar datos sobre una señal
portadora digital, utilizará un canal de servicio digital / unidad de servicio de datos
( CSU / DSU ), el cual únicamente proporciona una interfaz a la línea digital. Las
LAS REDES
251
líneas digitales pueden transmitir tráfico de datos a velocidades de hasta 45 Mbps y
están disponibles tanto para servicios dedicados como conmutados.
TECNOLOGIAS
Los protocolos de capa física WAN describen cómo proporcionar conexiones
eléctricas, mecánicas, operacionales, y funcionales para los servicios de una red de
área amplia. Estos servicios se obtienen en la mayoría de los casos de proveedores
de servicio WAN tales como las compañías telefónicas, portadoras alternas, y
agencias de Correo, Teléfono, y Telégrafo ( PTT: Post, Telephone and Telegraph ).
Los protocolos de enlace de datos WAN describen cómo los marcos se llevan entre
los sistemas en un único enlace de datos. Incluyen los protocolos diseñados para
operar sobre recursos punto a punto dedicados, recursos multipunto basados en
recursos dedicados, y los servicios conmutados multiacceso tales como Frame
Relay.
Los estándares WAN son definidos y manejados por un número de autoridades
reconocidas incluyendo las siguientes agencias:

International Telecommunication Union-Telecommunication Standardization
Sector ( ITU-T ), antes el Consultative Committee for Intemational
Telegraph and Telephone ( CCITT ).

Intemational Organization for Standardization ( ISO ).

Intemet Engineering Task Force ( IETF ).

Electronic Industries Association ( ETA ).
Los estándares WAN describen típicamente tanto los requisitos de la capa física
como de la capa de enlace de datos.
1. Capa Física: WAN
La capa física WAN describe la interfaz entre el equipo terminal de datos ( DTE ) y
el equipo de conexión de los datos ( DCE ). Típicamente, el DCE es el proveedor de
servicio, y el DTE es el dispositivo asociado. En este modelo, los servicios ofrecidos
al DTE se hacen disponibles a través de un módem o unidad de servicio del
canal/unidad de servicios de datos ( CSU / DSU ).
Algunos estándares de la capa física que especifican esta interfaz son:
LAS REDES

252
EIA/TIA-232D: Esta norma fue definida como una interfaz estándar para
conectar un DTE a un DCE.

EIA/TIA-449: Junto a la 422 y 423 forman la norma para transmisión en
serie que extienden las distancias y velocidades de transmisión más allá de
la norma 232.

V.35: Según su definición original, serviría para conectar un DTE a un DCE
síncrono de banda ancha ( analógico ) que operara en el intervalo de 48 a
168 kbps.

X.21: Estándar CCITT para redes de conmutación de circuitos. Conecta un
DTE al DCE de una red de datos pública.

G.703: Recomendaciones del ITU-T, antiguamente CCITT, relativas a los
aspectos generales de una interfaz.

EIA-530: Presenta el mismo conjunto de señales que la EIA-232D.

High-Speed Serial Interface ( HSSI ): Estándar de red para las conexiones
seriales de alta velocidad ( hasta 52 Mbps ) sobre conexiones WAN.
2. Capa de Enlace de Datos: Protocolos WAN
Las tramas más comunes en la capa de enlace de datos, asociadas con las líneas
seriales sincrónicas se enumeran a continuación:

Synchronous Data Link Control ( SDLC ). Es un protocolo orientado a dígitos
desarrollado por IBM. SDLC define un ambiente WAN multipunto que
permite que varias estaciones se conecten a un recurso dedicado. SDLC
define una estación primaria y una o más estaciones secundarias. La
comunicación siempre es entre la estación primaria y una de sus estaciones
secundarias. Las estaciones secundarias no pueden comunicarse entre sí
directamente.

High-Level Data Link Control ( HDLC ). Es un estándar ISO. HDLC no pudo
ser compatible entre diversos vendedores por la forma en que cada
vendedor
ha
elegido
cómo
implementarla.
HDLC
soporta
tanto
configuraciones punto a punto como multipunto.

Link Access Procedure Balanced ( LAPB ). Utilizado sobre todo con X.25,
puede también ser utilizado como transporte simple de enlace de datos.
LAPB incluye capacidades para la detección de pérdida de secuencia o
extravío de marcos así como también para intercambio, retransmitición, y
reconocimiento de marcos.

Frame Relay. Utiliza los recursos digitales de alta calidad donde sea
innecesario verificar los errores LAPB. Al utilizar un marco simplificado sin
mecanismos de corrección de errores, Frame Relay puede enviar la
LAS REDES
253
información de la capa 2 muy rápidamente, comparado con otros protocolos
WAN.

Point-to-Point Protocol ( PPP ). Descrito por el RFC 1661, dos estándares
desarrollados por el IETF. El PPP contiene un campo de protocolo para
identificar el protocolo de la capa de red.

X.25. Define la conexión entre una terminal y una red de conmutación de
paquetes.

Integrated Services Digital Network ( ISDN ). Un conjunto de servicios
digitales que transmite voz y datos sobre las líneas de teléfono existentes.
CONCLUSIONES
A lo largo de la historia las computadoras nos han ayudado a realizar muchas
aplicaciones y trabajos, el hombre no satisfecho con esto, buscó mas progreso,
logrando implantar comunicaciones entre varias computadoras, o mejor dicho:
"implantar Redes en las computadoras"; hoy en día la llamada Internet es dueña de
las redes, en cualquier parte del mundo una computadora se comunica, comparte
datos, realiza transacciones en segundos, gracias a las redes.
En los Bancos, las agencias de alquiler de vehículos, las líneas aéreas, y casi todas
las empresas tienen como núcleo principal de la comunicación a una RED.
Gracias a la denominada INTERNET, familias, empresas, y personas de todo el
mundo, se comunican, rápida y económicamente.
Las redes agilizaron en un paso gigante al mundo, porque grandes cantidades de
información se trasladan de un sitio a otro sin peligro de extraviarse en el camino.
Internet es uno de los ejemplos claros de Redes WAN, que tratamos en este
manual
INTERNET
Introducción
Hoy en día ya no solo accedemos a nuestras PC’s y servidores de información, sino
a donde se encuentre, al lado nuestro o en el otro lado del mundo.
Esté donde esté, accedemos mediante una simple llamada telefónica a través de
Internet.
Que se entiende por Internet?
Internet puede ser definida como "Una red de redes de computadoras" que se
encuentran interconectadas a lo largo del mundo, nadie es dueño de Internet
simplemente cada usuario paga su conexión hasta llegar a la red.
Para darse una idea de cómo internet se incorpora a la sociedad se debe recordar
que la radio demoró 28 años en llegar a 40 millones de personas y la televisión solo
tardo 10 años en llegar a la misma cantidad de gente, hoy dichos medios tiene una
llega masiva.
Internet apenas tardo 3 años en llegar al mismo número de personas y pronto será
un elemento de comunicación más en la vida cotidiana.
Se calcula que en 1997 los usuarios de Intenet eran aproximadamente 100 millones
y se estima que serán 450 millones para el 2005.
Un poco de historia.
Nació en EEUU como un proyecto de la DARPA (Defense Advanced Research
Projects
Agency).
La
misma
buscaba
intercambiar
información
entre
los
investigadores, científicos y militares, ubicados en distintos sitios distantes.
La red debía soportar un ataque nuclear sin perder la conexión con el resto de los
sitios, constaba de 4 computadores interconectados y se llamaba DARPANET. En
1972 ya había conectadas 37 computadores y pasó a denominarse ARPANET, la
aplicación mas utilizada en ésta era Telnet para luego pasar a ser el e~mail o
correo electrónico.
Hacia 1984 la NSF (National Science Foundation) estableció la NSFNET paralela a la
ARPANET para la investigación académica que ya estaba saturada, también la
NSFNET se saturó hacia mediados de 1987 y no precisamente por la actividad
INTERNET
256
académica.
En éste año se redimensionó totalmente la NSFNET, con un acceso más rápido, con
modems y computadoras mas veloces, a ellas podían ingresar todos los países
aliados de EEUU.
En los 90 se empieza a conocer como en la actualidad, La red o Internet y se abrió
para todo aquel que pudiera conectarse.
El protocolo utilizado en esta gran red es TCP/IP, TCP (Transfer Control Protocol) se
encarga de contabilizar las transmisión de datos entre computadores y registrar si
hay o no errores, mientas que IP (Internet Protocol) es el que realiza realmente la
transferencia de datos.
En la red existen equipos denominados host, estos equipos se encargan de dar
servicios a los clientes en la red, algunos de estos servicios son:
La Internet ha madurado.
TCP/IP, el protocolo de comunicaciones.
Una red existe cuando hay dos o más ordenadores conectados de forma que
puedan compartir y pasar información entre ellos. Cada una de éstas máquinas se
denomina host o nodo de la red. Si proporciona un servicio específico, tal como la
verificación de contraseña, el ordenador se denomina servidor.
Los nodos de una red siguen un conjunto de reglas, denominados protocolos para
intercambiar información, que a su vez sirve también para definir los servicios que
pueden estar disponibles en un ordenador. Hay muchos tipos diferentes de
protocolos, aunque los más habituales proporcionan conexiones TCP/IP que
permiten que los usuarios se conecten a Internet.
El protocolo de comunicaciones TCP/IP (Transmision Control Protocol/Internet
Protocol) sirve como núcleo de Internet. Este protocolo de comunicaciones permite
conectar computadores que utilizan distintos sistemas operativos
Trabaja a nivel de capa de red y de transporte en la clasificación del modelo de la
ISO/OSI.
Para pertenecer a Internet, se debe estar conectado al backbone (columna
vertebral) de la NSFNET y respetar la convensión de direccionamiento IP.
INTERNET
257
Al esquema de direccionamiento en Internet se le conoce como direccionamiento.
Una dirección IP es un número formado por cuatro octetos de la siguiente forma
xxx.xxx.xxx.xxx donde cada xxx representa un numero decimal entre 0 y 255 e
identifica en forma única a cada dispositivo conectado a la gran red, por ejemplo
168.101.122.1 identifica una red y un host dentro de esa red.
Como a las personas les es dificil manejarse con números, se manejan mediante
nombres que la red se encarga de traducir a direcciones IP, así el nombre completo
de una maquina puede ser uno.server.corporacion.com.pe.
Los dominios que son agrupaciones de computadores o dispositivos del mismo tipo,
origen o característica.
Servicios en Internet.
Mensajería - Correo electrónico - e~mail
El correo electrónico fue una de las primeras aplicaciones creadas para Internet y
de las que más se utilizan. Éste medio es rápido, eficiente y sencillo de administrar,
llegando a ser el sistema más sofisticado de mensajería que hoy conocemos.
El correo electrónico es mas sencillo que escribír una carta o enviar un fax, funciona
los 365 días del año las 24 horas del día, a no ser que caiga un servidor.
En caso de caídas de un servidor, no se pierden los mensajes enviados a dicho
destino sino que se retienen en el último punto hasta que puedan seguir su camino
hasta el buzón del destinatario, éste es global como Internet.
Es económico, ya que es más barato enviar un e~mail que un carta por vía aérea o
hacer una llamada o fax, no requiere papel, es fácil de descartar y es ecológico, de
lo único que se debe disponer es de una computadora y una conexión a Internet.
SMTP, el protocolo de Internet para correo electrónico.
SMTP (Simple Mail Transfer Protocol) es un protocolo de la familia del TCP/IP para
la transmisión de correo electrónico, éste no es dependiente de ningún correo en
especial sino que cualquier soft de correo que genere un e~mail en el formato en
que el protocolo lo estructura, será entendido por éste.
Las distintas formas de conexión son:
INTERNET

258
Correr un programa residente y conectado continuamente a internet
teniendo todo On Line.

Conectarse a Internet a intervalos regulares y despachar el correo saliente y
bajar el entrante o conectarse a Internet en forma irregular.
SMTP administra los mensajes en colas o spool, la forma de expresar una dirección
de correo electrónico es: [email protected]
Ejemplos de direcciones:

mailto:[email protected]

mailto:[email protected]
Los programas de e~mails más populares son Eudora, Outlook Express de Microsoft
y Netscape.
POP3.
Post Office Protocol 3 es el protocolo que nos permite acceder a nuestra casilla de
correos.
Mediante este protocolo, el cliente de e~mail se comunica al servidor de casilla de
correo y puede recibir el correo que el servidor ha estado recepcionando y
guardando para nosotros, así como también enviar el generado para enviar.
IMAP 4.
IMAP es la abreviatura de Internet Message Access Protocol. Es un método de
acceso al correo electrónico que se mantiene en el servidor correspondiente.
A diferencia del protocolo POP 3 que retira los mensajes del servidor al conectarse y
los almacena en el servidor local, IMAP 4 los deja en el servidor remoto, con lo que
es posible acceder a los mismos desde diferentes puntos (oficina, casa etc.).
Su particularidad es que deja crear multiples buzones en la máquina remota, es útil
para alguien que viaja para no tener la necesidad de llevarse un equipo consigo,
sino poder bajar los mensajes desde cualquier otro equipo, e inclusive permite que
varios usuarios entren al mismo buzón a las vez a ver los mismos mensajes.
FTP (File Transfer Protocol).
Este servicio permite la transferencia de archivo al y desde el servidor de FTP, se
diseño para permitir el intercambio de datos, archivos entre computadores host y
cliente.
La estructura de FTP es Client/Server, el servidor posee una estructura de
directorios o carpetas en donde se encuentran alojados, los archivos de texto,
gráficos, etc y el cliente accede mediante un utilitario de FTP o línea de comando
para extraer archivos a su PC o enviarlos al servidor.
INTERNET
259
Cuando se ingresa a un servidor FTP se puede hacer como usuario con permisos
definidos o como usuario invitado, siempre y cuando el administrador del sistema
habilite el mismo, luego puede recorrer las distintas carpetas hasta encontrar el
archivo buscado, una vez encontrado este se transfiere a nuestro computador.
Windows 98 tiene incluido un cliente FTP de línea de comandos que se ejecuta
desde una ventana DOS, también existen programas shareware o freeware con
entornos gráficos mucho mas amigables.
Archie es un sistema de búsqueda para encontrar archivos en los servidores FTP.
Ghoper.
El Gopher fue desarrollado por la Universidad de Minesotta en 1991. Este fue un
paso previo a la Web ya que permite desplegar un sistema de menúes jerárquicos y
acceder a la información en formato de caracteres, como si estuviéramos
ejecutando una terminal de Unix.
Además éste permite localizar y buscar documentos sin saber su dirección, como
por ejemplo buscar a cerca de un tema, buscar en base de datos, etc.
La habilidad para pasar de un servidor Gopher a otro es lo que se conoce como
Gopherspace que no es ni mas ni menos que la red que se forma con las
referencias cruzadas entre los distintos Gopher.
Para que un Gopher quede incluido en el Gopherspace se suele enviar un e~mail a
la Universidad de Minesotta para que los administradores lo incluyan en las
búsquedas.
La búsqueda de archivos se efectúa mediante Veronica, que es la versión Gopher
de Archie. Pero como Ghoper incluye textos descriptivos de cada archivo que se
publica, la búsqueda se orienta mas hacia contenidos de esos títulos que nombres
de archivos, por lo tanto Veronica puede encontrar archivos en sitios FTP que Archie
no podría.
También existe WAIS (Wide Area Information Server), que es un servicio de
búsqueda que permite encontrar texto dentro de los archivos, no solamente por
título o texto explicativo, sino por contenido.
Las búsquedas se realizan en base a índices que construyen en base a la
información de su los propios servidores y punteros a otros servidores de
información.
Telnet.
El método más modesto de utilizar una computadora es Telnet, que consiste en
conectarse a la misma por intermedio de la red (en vez de en forma local) pero a
través del protocolo TCP/IP. De esta manera en vez de utilizar una terminal boba,
INTERNET
260
ya se puede usar una PC común, y operar cualquier computadora que ofrezca este
servicio.
También se puede acceder vía Telnet a otros servicio como Gopher, servidores Web
en modo texto, y bibliotecas de servidores WAIS, aún cuando no se tengan los
clientes de estos servicios.
Usando Telnet en los distintos sistemas operativos.
Si se trabaja con un sistema Unix, telnet se reduce a poner telnet nombre_host
donde el nombre del host se puede expresar como su dirección IP o su nombre de
dominio.
Desde el sistema Windows se puede acceder con el software Winsock, en este
sistema operativo existen varios clientes Telnet, que emulan las terminales, como
por ejemplo TinyTERM que es un producto comercial, pero aparte existen infinidad
de productos shareware y freeware
Usenet Newsgroup.
Un área popular en Internet esta formada por los grupos de discusión o newsgroup,
hasta la llegada de la Web este tenía la supremacía en Internet en cuanto a
popularidad.
El software original de news fue desarrollado para los sistemas operativos Unix en
1979 por dos estudiantes de la Universidad de Duke como un mecanismo para
discusión y conferencias.
Actualmente Newsgroup soporta mas de 12.000 grupos de discusión a cerca de una
gran variedad de temas.
Usenet es un sistema de conferencias y discusión de alcance global, este soporta lo
que se denominan mailing list, cuando se quiere escribir algo para que sea leído por
los demás lectores éste se postea a un newsgroup.
Cuando se quieren leer los mensajes se utiliza un software especial denominado
reader, por supuesto los software de uso común como Netscape Navigator e
Internet Explorer pueden leer Newsgroup.
Los nombres de los newsgroup utilizan una convensión, los usuarios tratan de ser
específicos para evitar postear mensajes a un tema que no corresponda.
Videoconferencia.
Al telefóno vía Internet se le sumó la transmisión de video en directo creando el
nuevo concepto de "Videoconferencia".
Existe en el mercado un programa denominado CUSeeMee "Comunicandonos en
Vivo". Por el momento las imágenes que transmite CuSeeMee son de resolución
regular y se actualizan a intervalos regulares. La calidad del sonido, en cambio, es
INTERNET
261
bastante superior a la del video pues el sonido es más fácil de enviar porque
requiere menos recursos que el video.
Además, el sistema permite transmitir textos e imágenes fijas, al mismo tiempo en
que se habla y se ve la imágen en movimiento. Pasando del Videoteléfono a la
Videoconferencia, CuSeeMe permite conectar ocho personas, cada uno frente al
monitor de su PC en distintos puntos de la red.
No caben dudas de que el sistema aún necesita muchas mejoras en cuanto a la
calidad y la velocidad de transmisión. El límite más difícil de franquear es el que
impone la propia estructura actual de Internet, con su ancho de banda bastante
comprometido.
IRC (Internet Relay Chat).
Este es un servicio que permite al usuario, por medio del tipeo, conversar con otros
usuarios conectados a servidores de IRC.
Aquí los usuarios hablan entre sí usando el teclado, tipeando sus opiniones sobre
los más diversos temas a través de miles de canales temáticos diferentes. Para
participar en IRC hay que contar con un programa específico, que permite acceder
a una serie de servidores públicos conectados en red, dedicados a este tipo de
comunicación.
La World Wide Web, su historia y concepto.
La WWW convierte el acceso a la Internet en algo sencillo para el público en
general lo que da a ésta un crecimiento explosivo. Es relativamente sencillo
recorrer la Web y publicar información en ella, las herramientas de la WWW
crecieron a lo largo de los últimos tres años hasta ser las más populares.
Permite unir información que está en un extremo del planeta con otro en un lugar
distante a través de algo que se denomina hipervínculo, al hacer click sobre éste
nos comunica con el otro sector del documento o con otro documento en otro
servidor de información.
Nace en 1989 en un laboratorio Europeo de Física de partículas (CERN), los
investigadores querían un método único que realizara la actividad de encontrar
cierta información, traerla a la computadora y ver algún papers y/o gráfico a través
de una interface única, eliminando la complejidad de diversas herramientas.
A finales de 1990 los investigadores ya tenían un browers en modo texto y uno en
modo gráfico para la computadora NEXT. En 1992 se publica para el público en
general y a medida que fue avanzando el proyecto, se agregaron interfaces a otros
servicios como WAIS, FTP, Telnet y Gopher.
INTERNET
262
La comunidad de Internet adoptó rapidamente ésta herramienta y comenzó a crear
sus propios servidores de WWW para publicar información, incluso algunos
comenzaron a trabajar en clientes WWW. A finales de 1993 los browsers se habían
desarrollado para una gran variedad de computadoras y sistemas operativos y
desde allí a la fecha, la WWW es una de las formas más populares de acceder a los
recursos de la red.
Para acceder a la WWW se debe ejecutar en la computadora cliente un browser,
ésta es una aplicación que sabe como interpretar y mostrar documentos
hipertextuales.
Un documento hipertextual es un texto que contiene vínculos con otros textos,
gráficos sonido video y animaciones. Los browser mas conocidos son el Mosaic (uno
de los primeros) y actualmente Netscape y Explorer de Microsoft.
Cuando recuperamos un documento de la WWW, este es con formato y puede ser
visto en distintas computadoras, para asegurarnos que este se vea como se debe
ver existe un formato o lenguaje llamado HTML, que es un conjunto de
instrucciones sencillas que indican como se estructura ese documento, el browser
interpreta los comandos HTML y presenta el documento formateado para su visión
por el usuario.
¿Que es una página Web?
Una aplicación web consta de una o más páginas conectadas entre sí. Un buen
punto de partida sería decir que una página web es un archivo de texto que
contiene lenguaje de marcas de hipertexto (HTML), etiquetas de formato y vínculos
a archivos gráficos y a otras páginas web.
El archivo de texto se almacena en un servidor de web al que pueden acceder otras
computadoras conectadas ese servidor , vía Internet o una LAN. Al archivo se
puede acceder utilizando exploradores Web que no hacen otra cosa que efectuar
una transferencia de archivos e interpretación de las etiquetas y vínculos HTML, y
muestran el resultado en el monitor.
Otra definición sería que una pagina Web es un formulario interactivo que utiliza
una red de computadoras.
Hay dos propiedades de las páginas Web que la hacen únicas: que son interactivas
y que pueden usar objetos multimedia. El término multimedia se utiliza para
describir archivos de texto, sonido, animación y video que se combinan para
presentar la información, por ejemplo, en una enciclopedia interactiva o juego.
Cuando esos mismos tipos de archivo se distribuyen por Internet o una LAN, se
puede utilizar el término hipermedia para describirlos. Gracias al World Wid Web ya
es posible disponer de multimedios a través de internet.
INTERNET
263
Cada página Web tiene asociado una direccion o URL, por ejemplo la página
principal de Microsoft es http://www.microsoft.com/ , un URL es la ruta a una
página determinada dentro de Internet, se utiliza de la misma forma que para
localizar un archivo en una computadora, en este caso indica que es la página
principal que esta situada en el servidor de Microsoft que esta conectado a la
WWW.
El nombre de la página principal dentro del servidor es normalmente default.htm o
Index.htm, estos son los archivos que se desplegan en el navegador si no se indica
cual y solo se indica el nombre base de URL.
MIME
La especificación MIME (Extensiones de Correo de Internet Multipropósito) describe
la transferencia de datos multimedia mediante los estandares de correo de
Internet.
Antes de implementar MIME para el Web , ésta utilizaba una especificación técnica
diferente para describir la sintaxis de los mensajes de texto que intercambiaban los
programas en Internet. Sin embargo los mensajes de texto solo podían transferir
texto.
La especificación MIME define formatos para imagen, video, sonido, archivos
binarios, aplicaciones y algunos otros tipos de archivo multimedia. De hecho se
puede definir su propio formato de archivos y utilizarlo para comunicarse con un
servidor, suponiendo que este reconozca la definición de formato.
Transferencia de Información en la WWW
Una vez que el usuario se encuentra conectado a la Internet, para obtener la
página Web en la pantalla de su computador se efectúan transparentemente las
siguientes tareas:
1. El cliente solicita al browser la página Web requerida.
2. Se establece la una conexión entre el browser y el servidor para satisfacer el
requerimiento.
3. El browser solicita el objeto.
4. El Servidor Web busca la página en sus discos
5. El servidor envía la página al browser, siendo el browser del cliente el que
interpreta el código HTML.
6. Se cierra la conexión establecida en el pto 2.
Podemos observar que siempre después de cada solicitud se libera la conexión, este
diseño funciona así para economizar ancho de banda de la red, ya que si se estaría
INTERNET
264
continuamente conectado, se haría uso de ancho de banda en períodos innecesarios
y este recurso es muy valioso y escaso en la red.
También si una página tiene a su vez objetos, gráficos, sonido, para cada objeto se
realiza una conexión distinta.
Por la Web se transmiten la mayoría del tiempo documentos en lenguaje HTML, los
cuales son interpretados por los clientes, estos documentos contienen enlaces de
hipertexto al mismo documento o a otros.
Los clientes Web pueden almacenar localmente las páginas recibidas, esto se
conoce con el término cache, mejora la performance y economiza ancho de banda
de la red.
Las páginas HTML tienen hiperlink a la misma o distintas páginas en el propio
servidor o en otro que puede estar en un lugar tan alejado como nos imaginemos.
HTTP, el protocolo de transporte de hipertexto.
Los protocolos son reglas que ayudan a estandarizar la comunicación entre
ordenadores.
De ellos, el que controla la transferencia de datos en la World Wide web WWW es el
HTTP, que proporciona un vehículo de entrega para las imágenes, gráficos, video,
hipertexto u otros datos en la Web.
Mientras se recorre la web, el explorador intercambia mensajes con los servidores
Web gracias al HTTP.
Cada vez que hace un clic en un hipervínculos o pasa de un recurso a otro, el
explorador utiliza HTTP para acceder al recurso seleccionado.
HTTP es un protocolo sin estado, en otras palabras el explorador y el servidor
deben crear y después cortar una conexión de red por cada operación HTTP, a este
conjunto de peticiones y respuestas se denomina transacción.
Mediante HTTP los clientes y los servidores determinan de forma dinámica el
formato de los documentos, lo que permiten que utilicen formato de datos no
estándar para el intercambio de datos. Si el receptor no tiene un modo de ver o
acceder a los datos, puede descargar un programa complemento que le permita
recibir el contenido.
Las cabeceras de HTTP pueden contener información acerca de los objetos que
transmite la aplicación a través de la Web. Con la informacion de las cabeceras, las
aplicaciones Cliente-Servidor negocian formatos que pueden utilizar para transferir
los objetos. Si no reconocen la información de la cabecera, la ignoran. Por tanto,
puede probar nuevos protocolos en la Web sin comprometer la integridad del HTTP.
INTERNET
265
Además el protocolo esta basado en texto por lo cual es legible y no necesita
decodificación.
Exploradores Web.
Todos los exploradores Web interpretan y muestran los archivos codificados en
HTML.
HTML 3.2 es el estándar aceptado actualmente y se está desarrollando HTML 4.0.
Los fabricantes de exploradores Web, principalmente Netscape con el Navigator y
Micorsoft con el Internet Explorer han creado extensiones fuera del estándar. Esto
ha sido positivo para la Web en término de avances pero en desmedro de la misma
en términos de compatibilidad. Algunas de las extensiones son compatibles entre sí
pero otras funcionan solamente en sus respectivos exploradores, las principales
diferencias ocurren con la tecnologia Java y ActiveX.
Otra
diferencia
esta
en
la
tecnología
Push,
esta
consiste
en
transmitir
automaticamente el contenido Web a un explorador. El usuario se debe suscribir
primero a un canal y a partir de ahí, cuando abre una conexión con Internet, el
explorador examina los canales a los que se ha suscripto el usuario, para ver si
existe
algún
nuevo
contenido,
cuando
encuentra
uno
lo
transmite
automaticamente, el estándar de Microsoft es el CDF incompatible con el Netcaster
de Netscape que es el PointCast líder actualmente en el mercado y compatible con
CDF.
La Web - oportunidad y necesidad.
En el mercado de hoy en día, parece que las empresas deben estar en la Web,
también llamada telaraña mundial para tener una ventaja competitiva. Por lo tanto,
no estar en la Web es tener una gran desventaja. Sin duda, si quiere que sus
clientes consideren que su compañía esta al día, debe estar conectado.
El método más importante para mostrar que está preparado para el próximo siglo
es
que
su
empresa
este
conectada
a
Internet.
Después de conectarse debe publicar información en la Web e invitar a sus clientes
a ver los archivos y acceder a los recursos disponibles. Para muchas empresas la
presencia en la Web se ha convertido en una necesidad, y ha demostrado que es un
excelente potencial comercial y financiero y que ésta crecerá mas cuando se
impongan las técnicas de seguridad y codificación.
La Web, el correo electrónico, el ciberdinero y la seguridad están tan integrados en
el
mundo
empresarial
actuál
como
en
los
catálogos
impresos.
Tanto el correo electrónico como la WWW son las aplicaciones más populares de
INTERNET
266
Internet y el principal sustento del comercio electrónico, siempre y cuando estén
soportados en un ámbito seguro.
La Web se ha convertido en un gigante bazar de bienes y servicios, se puede
encontrar lo que se quiera en ella, y los portales obtienen una ventaja de esto al
agregar vínculos a sitios de comercio electrónico para que lo usuarios encuentren lo
que quieren.
Por ejemplo Shopping Guide de Yahoo incluye un buscador de precios bajos que
permite buscar en toda la Web los precios mas bajos de un artículo.
Como conectarse a Internet.
Los elementos necesarios de Software y de Hardware que se necesitan son
relativos al tipo de conexión que quiera establecer, pero como norma general para
un usuario final se necesitará lo siguiente:

Una línea telefónica para establecer la comunicación con el ISP (Internet
Service Provider)

Un ISP que hace de nexo o gateway a Internet.

Una computadora 486 o superior preferentemente con Windows 95 o 98.

Un módem 14.400 o mayor, en la actualidad 56K.

El software de comunicación que en caso de ser Windows 95 o 98 ya
dispone del mismo.

El Software para navegar (Browser) y correo electrónico (incluido en Win
95/98).

Una cuenta de Internet habilitada por el ISP.
Tipos de Conexión a Internet.
Para poder hacer uso de lo que Internet nos ofrece, debemos tener una conexión
hacia ella mediante un ISP.
El tipo de conexión del cual dispongamos determina los servicios que obtendremos,
el grado de comodidad y el costo de la misma.
Conexión como emulación de terminal.
Este tipo de conexión se establece a través de una línea telefónica haciendo uso del
módem y emulando una terminal.
En este tipo de conexión la computadora no esta conectada directamente a Internet
sino que lo que está través del host del Internet Service Provider, con lo cuál si
bajamos algún archivo con FTP no lo estamos haciendo a nuestra computadora sino
al host que usamos en el momento.
INTERNET
267
Para transferir ese archivo luego a nuestra computadora local deberemos usar
algún protocolo de comunicaciones serie como Xmodem, Zmodem, Kermit u otro.
Conexión Mail.
Esta es la forma mas sencilla y humilde de conexión, y el usuario lo único
que puede realizar es enviar y recibir e~mails.
Por línea Telefónica (dial up link).
Este método es el que ofrecen los proveedores de Internet para el público en
general y consta de una computadora conectada mediante un módem y una línea
telefónica a un ISP (Internet Service Provider) mediante un subprotocolo SLIP
(Serial Link Internet Protocol) o PPP (Point to Point Protocol).
El mecanismo de conexión es relativamente sencillo, se llama telefonicamente al
proveedor (ISP) y éste hace a modo de Gateway entre nuestra computadora y la
red, lo ideal en esto es constar de un módem de buena velocidad (56K en la
actualidad) y de un proveedor que no este continuamente saturado.
Por línea dedicada (Leased Lines).
Cuando se dispone de este tipo de línea se está continuamente conectado a la red
Wan mediante un ruteador, las velocidades de conexión varían desde 56K a
44Mbps.
Este tipo de conexión es más cara que la anterior, ya que la empresa esta
conectada las 24 hs en línea directa a Internet, por lo cual el rendimiento es
también mayor.
Al disponer de esta línea también se puede ser un proveedor de información.
Internet con Windows.
Windows ya viene integrado con todas las herramientas de Software y asistentes
diseñados especificamente para realizar una conexión exitosa a Internet en pocos
minutos.
Los distintos componentes que ofrece Microsoft en Windows 98 son los siguientes:

Asistentes paso a paso que lo guían automaticamente desde la instalación
del navegador Microsoft Internet Explorer, hasta la configuración de los
datos del proveedor, dirección IP, número telefónico de acceso a Internet
etc.

Asistentes paso a paso que lo guían automaticamente para la instalación del
Outlook Express para usar como correo y news con multiples cuentas y
INTERNET
268
proveedores, hasta la configuración de los datos del proveedor, cuentas de
e~mails, buzones, dirección IP, número telefónicos etc.

Pila de Protocolo TCP/IP de 32 bits.

Utilitarios de FTP y Telnet ya listos para usar con muy poca configuración,
para ser usado en Internet o para conectarse a otro equipo.

Detección automática de módem instalado.
Todas estas herramientas y utilitarios están contenidos en la caja Windows 98 sin
ningún costo adicional.
Que ventajas ofrece Internet?
Son muchas las ventajas que Internet nos ofrece, podríamos llenar páginas enteras
de bondades, pero trataremos de citar las principales.
Acceso Global: Uno ingresa a la red a través de una llamada telefónica o una línea
alquilada directa a Internet y el acceso a la información no posee un costo de
comunicación extra para la información este donde este esta, que puede ser
localmente o en otro país.
Acercamiento con los clientes: Mediante Internet y el correo electrónico, se tiene
llegada a personas e información dentro y fuera de las empresas que para realizarlo
por medio de otras tecnologías en algunos casos se tornaría imposible (Ej. Gtes de
empresas, foros de discusión etc.).
Relaciones mediante hiperlinks: Con el solo click de un botón paso de un
servidor de información a otro en forma transparente y gráfica.
Bajo Costo: El costo es relativamente bajo, ya que se abona el costo de una
llamada local y el de un ISP que puede oscilar entre $30 a $45 mensuales en
promedio, dependiendo del tipo de servicio (10 horas de navegación o tarifa plana).
Compatibilidades tecnológicas: Puedo acceder de equipos corriendo sistemas
operativos gráficos como Windows 98/NT o Mac, a sistemas operativos tipo carácter
como algunas versiones de Unix y otros en forma transparente, ya que la red se
encarga de resolver esta compatibilidad.
SISTEMAS DISTRIBUIDOS
1. Introducción Histórica
En el inicio de la era de la informática las computadoras eran grandes y caras.
Debido a su escasez y coste, éstas funcionaban de forma independiente entre ellas.
A partir de los años 70, surgen los primeros miniordenadores, que competirían con
los grandes ordenadores tanto por las prestaciones como por su precio, con lo que
se extendió su uso. Los grandes sistemas centralizados fueron dejando paso
lentamente a sistemas mucho más descentralizados, y formados por varios
ordenadores o a sistemas multiprocesador. Pronto surgieron nuevas necesidades de
interconexión de los equipos, y se desarrollaron las redes de área local (LAN), como
Ethernet o Token ring. En la actualidad, Internet es la red de mayor tamaño y la
más usada, y mantiene un impresionante ritmo de crecimiento. Además, Internet
es la base de muchos nuevos proyectos de sistemas distribuidos.
Aunque los actuales sistemas de red solucionan parte de las necesidades actuales
de comunicación entre computadoras, tienen importantes limitaciones, y no son
aplicables a una gran cantidad de problemas. Por ello surge la necesidad de crear
sistemas distribuidos que sustituyan a los actuales sistemas de red o a los sistemas
multiprocesadores.
2. Conceptos de los sistemas distribuidos
Los sistemas distribuidos están basados en las ideas básicas de transparencia,
eficiencia, flexibilidad, escalabilidad y fiabilidad. Sin embargo estos aspectos son en
parte contrarios, y por lo tanto los sistemas distribuidos han de cumplir en su
diseño el compromiso de que todos los puntos anteriores sean solucionados de
manera aceptable.
Transparencia
El concepto de transparencia de un sistema distribuido va ligado a la idea de que
todo el sistema funcione de forma similar en todos los puntos de la red,
independientemente de la posición del usuario. Queda como labor del sistema
operativo el establecer los mecanismos que oculten la naturaleza distribuida del
sistema y que permitan trabajar a los usuarios como si de un único equipo se
tratara.
SISTEMAS DISTRIBUIDOS
270
En un sistema transparente, las diferentes copias de un archivo deben aparecer al
usuario como un único archivo. Queda como labor del sistema operativo el controlar
las copias, actualizarlas en caso de modificación y en general, la unicidad de los
recursos y el control de la concurrencia.
El que el sistema disponga de varios procesadores debe lograr un mayor
rendimiento del sistema, pero el sistema operativo debe controlar que tanto los
usuario como los programadores vean el núcleo del sistema distribuido como un
único procesador. El paralelismo es otro punto clave que debe controlar el sistema
operativo, que debe distribuir las tareas entre los distintos procesadores como en
un sistema multiprocesador, pero con la dificultad añadida de que ésta tarea hay
que realizarla a través de varios ordenadores.
Eficiencia
La idea base de los sistemas distribuidos es la de obtener sistemas mucho más
rápidos que los ordenadores actuales. Es en este punto cuando nos encontramos de
nuevo con el paralelismo.
Para lograr un sistema eficiente hay que descartar la idea de ejecutar un programa
en un único procesador de todo el sistema, y pensar en distribuir las tareas a los
procesadores libres más rápidos en cada momento.
La idea de que un procesador vaya a realizar una tarea de forma rápida es bastante
compleja, y depende de muchos aspectos concretos, como la propia velocidad del
procesador, pero también la localidad del procesador, los datos, los dispositivos,
etc. Se han de evitar situaciones como enviar un trabajo de impresión a un
ordenador que no tenga conectada una impresora de forma local.
Flexibilidad
Un proyecto en desarrollo como el diseño de un sistema operativo distribuido debe
estar abierto a cambios y actualizaciones que mejoren el funcionamiento del
sistema. Esta necesidad ha provocado una diferenciación entre las dos diferentes
arquitecturas del
núcleo del
sistema operativo: el núcleo monolítico y el
micronúcleo. Las diferencias entre ambos son los servicios que ofrece el núcleo del
sistema operativo. Mientras el núcleo monolítico ofrece todas las funciones básicas
del sistema integradas en el núcleo, el micronúcleo incorpora solamente las
fundamentales,
que
incluyen
únicamente
el
control
de los
procesos
y
la
SISTEMAS DISTRIBUIDOS
comunicación
entre
ellos y la
271
memoria.
El
resto de
servicios se
cargan
dinámicamente a partir de servidores en el nivel de usuario.
Núcleo monolítico
Como ejemplo de sistema operativo de núcleo monolítico está UNIX. Estos sistemas
tienen un núcleo grande y complejo, que engloba todos los servicios del sistema.
Está programado de forma no modular, y tiene un rendimiento mayor que un
micronúcleo. Sin embargo, cualquier cambio a realizar en cualquier servicio
requiere la parada de todo el sistema y la recompilación del núcleo.
Micronúcleo
La arquitectura de micronúcleo ofrece la alternativa al núcleo monolítico. Se basa
en una programación altamente modular, y tiene un tamaño mucho menor que el
núcleo monolítico. Como consecuencia, el refinamiento y el control de errores son
más rápidos y sencillos. Además, la actualización de los servicios es más sencilla y
ágil, ya que sólo es necesaria la recompilación del servicio y no de todo el núcleo.
Como contraprestación, el rendimiento se ve afectado negativamente.
En la actualidad la mayoría de sistemas operativos distribuidos en desarrollo
tienden a un diseño de micronúcleo. Los núcleos tienden a contener menos errores
y a ser más fáciles de implementar y de corregir. El sistema pierde ligeramente en
rendimiento, pero a cambio consigue un gran aumento de la flexibilidad.
Escalabilidad
Un sistema operativo distribuido debería funcionar tanto para una docena de
ordenadores como varios millares. Igualmente, debería no ser determinante el tipo
de red utilizada (LAN o WAN) ni las distancias entre los equipos, etc.
Aunque este punto sería muy deseable, puede que las soluciones válidas para unos
cuantos ordenadores no sean aplicables para varios miles. Del mismo modo el tipo
de red condiciona tremendamente el rendimiento del sistema, y puede que lo que
funcione para un tipo de red, para otro requiera un nuevo diseño.
La escalabilidad propone que cualquier ordenador individual ha de ser capaz de
trabajar independientemente como un sistema distribuido, pero también debe
poder hacerlo conectado a muchas otras máquinas.
Fiabilidad
SISTEMAS DISTRIBUIDOS
272
Una de las ventajas claras que nos ofrece la idea de sistema distribuido es que el
funcionamiento de todo el sistema no debe estar ligado a ciertas máquinas de la
red, sino que cualquier equipo pueda suplir a otro en caso de que uno se estropee o
falle.
La forma más evidente de lograr la fiabilidad de todo el sistema está en la
redundancia. La información no debe estar almacenada en un solo servidor de
archivos, sino en por lo menos dos máquinas. Mediante la redundancia de los
principales archivos o de todos evitamos el caso de que el fallo de un servidor
bloquee todo el sistema, al tener una copia idéntica de los archivos en otro equipo.
Otro tipo de redundancia más compleja se refiere a los procesos. Las tareas críticas
podrían enviarse a varios procesadores independientes, de forma que el primer
procesador realizaría la tarea normalmente, pero ésta pasaría a ejecutarse en otro
procesador si el primero hubiera fallado.
Comunicación
La comunicación entre procesos en sistemas con un único procesador se lleva a
cabo mediante el uso de memoria compartida entre los procesos. En los sistemas
distribuidos, al no haber conexión física entre las distintas memorias de los equipos,
la comunicación se realiza mediante la transferencia de mensajes.
3. El estándar ISO OSI
Para el envío de mensajes se usa el estándar ISO OSI (interconexión de sistemas
abiertos), un modelo por capas para la comunicación de sistemas abiertos. Las
capas proporcionan varias interfaces con diferentes niveles de detalle, siendo la
última la más general. El estándar OSI define las siguientes siete capas: física,
enlace de datos, red, transporte, sesión, presentación y aplicación.
El modelo OSI distingue dos tipos de protocolos, los orientados hacia las conexiones
y los protocolos sin conexión. En los primeros, antes de cualquier envío de datos se
requiere una conexión virtual, que tras el envío deben finalizar. Los protocolos sin
conexión no requieren este paso previo, y los mensajes se envían en forma de
datagramas.
4. Modo de transmisión asíncrona ATM
SISTEMAS DISTRIBUIDOS
273
El modo de transmisión asíncrona o ATM proporciona un rápido modo de
transmisión. Las altas velocidades se alcanzan prescindiendo de la información de
control de flujo y de control de errores en los nodos intermedios de la transmisión.
ATM usa el modo orientado a conexión, y permite la transmisión de diferentes tipos
de información, como voz, vídeo, datos, etc.
El modelo cliente-servidor basa la comunicación en una simplificación del modelo
OSI. Las siete capas que proporciona producen un desaprovechamiento de la
velocidad de transferencia de la red, con lo que sólo se usarán tres capas: física
(1), enlace de datos (2) y solicitud/respuesta (5). Las transferencias se basan en el
protocolo solicitud/respuesta y se elimina la necesidad de conexión.
RPC
Otro paso en el diseño de un sistema operativo distribuido plantea las llamadas a
procedimientos
remotos
o
RPCs.
Los
RPC
amplían
la
llamada
local
a
procedimientos, y los generalizan a una llamada a un procedimiento localizado en
cualquier lugar de todo el sistema distribuido. En un sistema distribuido no se
debería distinguir entre llamadas locales y RPCs, lo que favorece en gran medida la
transparencia del sistema.
Una de las dificultades más evidentes a las que se enfrenta el RPC es el formato de
los parámetros de los procedimientos. Un ejemplo para ilustrar este problema es la
posibilidad de que en un sistema distribuido formado por diferentes tipos de
ordenadores, un ordenador con formato little endian llamara a un procedimiento de
otro ordenador con formato big endian, etc. Este problema se podría solucionar si
tenemos en cuenta que ambos programas conocen el tipo de datos de los
parámetros, o estableciendo un estándar en el formato de los parámetros, de forma
que sea usado de forma única.
Otro problema de peor solución es el paso de apuntadores como parámetros.
Debido a que los apuntadores guardan una dirección del espacio de direcciones
local, el procedimiento que recibe el apuntador como parámetro no puede usar
inmediatamente el apuntador, ya que no tiene acceso a los datos, que para él son
remotos. En el tema 7 se describirá la memoria compartida, que propone una
solución a este problema.
Por último queda por solucionar la tolerancia a fallos. Una llamada a un
procedimiento remoto puede fallar por motivos que antes no existían, como la
SISTEMAS DISTRIBUIDOS
274
pérdida de mensajes o el fallo del cliente o del servidor durante la ejecución del
procedimiento.
La limitación del RPC más clara en los sistemas distribuidos es que no permite
enviar una solicitud y recibir respuesta de varias fuentes a la vez, sino que la
comunicación se realiza únicamente entre dos procesos. Por motivos de tolerancia a
fallos, bloqueos, u otros, sería interesante poder tratar la comunicación en grupo.
5. Comunicación en grupo
La comunicación en grupo tiene que permitir la definición de grupos, así como
características propias de los grupos, como la distinción entre grupos abiertos o que
permiten el acceso y cerrados que lo limitan, o como la distinción del tipo de
jerarquía dentro del grupo. Igualmente, los grupos han de tener operaciones
relacionadas con su manejo, como la creación o modificación.
Sincronización
La sincronización en sistemas de un único ordenador no requiere ninguna
consideración en el diseño del sistema operativo, ya que existe un reloj único que
proporciona de forma regular y precisa el tiempo en cada momento. Sin embargo,
los sistemas distribuidos tienen un reloj por cada ordenador del sistema, con lo que
es fundamental una coordinación entre todos los relojes para mostrar una hora
única. Los osciladores de cada ordenador son ligeramente diferentes, y como
consecuencia todos los relojes sufren un desfase y deben ser sincronizados
continuamente. La sincronización no es trivial, porque se realiza a través de
mensajes por la red, cuyo tiempo de envío puede ser variable y depender de
muchos factores, como la distancia, la velocidad de transmisión o la propia
saturación de la red, etc.
El reloj
La
sincronización
no
tiene
por
qué
ser
exacta,
y
bastará
con
que
sea
aproximadamente igual en todos los ordenadores. Hay que tener en cuenta, eso sí,
el modo de actualizar la hora de un reloj en particular. Es fundamental no retrasar
nunca la hora, aunque el reloj adelante. En vez de eso, hay que ralentizar la
actualización del reloj, frenarlo, hasta que alcance la hora aproximadamente.
Existen diferentes algoritmos de actualización de la hora, tres de ellos se exponen
brevemente a continuación.
SISTEMAS DISTRIBUIDOS
275
Algoritmo de Lamport
Tras el intento de sincronizar todos los relojes, surge la idea de que no es necesario
que todos los relojes tengan la misma hora exacta, sino que simplemente
mantengan una relación estable de forma que se mantenga la relación de qué
suceso ocurrió antes que otro suceso cualquiera.
Este algoritmo se encarga exclusivamente de mantener el orden en que se suceden
los procesos. En cada mensaje que se envía a otro ordenador se incluye la hora. Si
el receptor del mensaje tiene una hora anterior a la indicada en el mensaje, utiliza
la hora recibida incrementada en uno para actualizar su propia hora.
Algoritmo de Cristian
Consiste en disponer de un servidor de tiempo, que reciba la hora exacta. El
servidor se encarga de enviar a cada ordenador la hora. Cada ordenador de destino
sólo tiene que sumarle el tiempo de transporte del mensaje, que se puede calcular
de forma aproximada.
Algoritmo de Berkeley
La principal desventaja del algoritmo de Cristian es que todo el sistema depende
del servidor de tiempo, lo cual no es aceptable en un sistema distribuido fiable.
El algoritmo de Berkeley usa la hora de todos los ordenadores para elaborar una
media, que se reenvía para que cada equipo actualice su propia hora ralentizando
el reloj o adoptando la nueva hora, según el caso.
6. Otros problemas de sincronización
El reloj es únicamente uno de tantos problemas de sincronización que existen en
los sistemas distribuidos. A continuación planteamos otros problemas relacionados
con la sincronización.
En el momento de modificar unos datos compartidos, los procesos deben lograr la
exclusión mutua que garantice que dos procesos no modifiquen los datos a la vez.
Algunos
algoritmos
distribuidos
requieren
que
un
proceso
funcione
como
coordinador. Es necesario establecer ciertos algoritmos de elección de estos
procesos.
SISTEMAS DISTRIBUIDOS
276
Es necesario ocultar las técnicas de sincronización mediante la abstracción de las
transacciones atómicas, que permitan a los programadores salvar los detalles de la
programación con sincronización.
Soluciones frente a bloqueos son bastante más complejas que en sistemas con un
único procesador.
7. Sistema de archivos
A diferencia de los sistemas de archivos clásicos, un sistema de archivos distribuido
debe ser descentralizado, transparente y tolerante a fallos.
Transparencia
El problema más importante a resolver es el modo de que todos los ordenadores
puedan acceder a todos los archivos del sistema. Para ello es necesario que todos
los ordenadores lleven siempre y en todo momento una copia actualizada de la
estructura de archivos y directorios. Si esta estructura oculta la localización física
de los archivos entonces hemos cumplido el criterio de transparencia.
Fallos del sistema
Que el sistema de archivos sea tolerante a fallos implica que el sistema debe
guardar varias copias del mismo archivo en distintos ordenadores para garantizar la
disponibilidad en caso de fallo del servidor original. Además, se ha de aplicar un
algoritmo que nos permita mantener todas las copias actualizadas de forma
consistente, o un método alternativo que sólo nos permita acceder al archivo
actualizado, como invalidar el resto de copias cuando en cualquiera de ellas se vaya
a realizar una operación de escritura. El uso de memorias cache para agilizar el
acceso a los archivos también es recomendable, pero este caso requiere analizar
con especial atención la consistencia del sistema.
Modelos de acceso
Debido a la complejidad del acceso a los archivos a través de todo el sistema
distribuido, surgen dos modelos para el acceso a los archivos: el modelo
carga/descarga, y el modelo de acceso remoto. El primer modelo simplifica el
acceso permitiendo únicamente las operaciones de cargar y descargar un archivo.
El acceso a cualquier parte del archivo implica solicitar y guardar una copia local del
archivo completo, y sólo se puede escribir de forma remota el archivo completo.
SISTEMAS DISTRIBUIDOS
277
Este método sería especialmente ineficaz a la hora de realizar pequeñas
modificaciones en archivos muy grandes, como podrían ser bases de datos. El
modelo de acceso remoto es mucho más complejo, y permite todas las operaciones
típicas de un sistema de archivos local.
Memoria compartida distribuida
La memoria compartida distribuida o DSM es una abstracción que se propone como
alternativa a la comunicación por mensajes.
Memoria compartida basada en páginas
El esquema de DSM propone un espacio de direcciones de memoria virtual que
integre la memoria de todas las computadoras del sistema, y su uso mediante
paginación. Las páginas quedan restringidas a estar necesariamente en un único
ordenador. Cuando un programa intenta acceder a una posición virtual de memoria,
se comprueba si esa página se encuentra de forma local. Si no se encuentra, se
provoca un fallo de página, y el sistema operativo solicita la página al resto de
computadoras. El sistema funciona de forma análoga al sistema de memoria virtual
tradicional, pero en este caso los fallos de página se propagan al resto de
ordenadores, hasta que la petición llega al ordenador que tiene la página virtual
solicitada en su memoria local. A primera vista este sistema parece más eficiente
que el acceso a la memoria virtual en disco, pero en la realidad ha mostrado ser un
sistema demasiado lento en ciertas aplicaciones, ya que provoca un tráfico de
páginas excesivo.
Una mejora dirigida a mejorar el rendimiento sugiere dividir el espacio de
direcciones en una zona local y privada y una zona de memoria compartida, que se
usará únicamente por procesos que necesiten compartir datos. Esta abstracción se
acerca a la idea de programación mediante la declaración explícita de datos
públicos y privados, y minimiza el envío de información, ya que sólo se enviarán los
datos que realmente vayan a compartirse.
Memoria compartida basada en objetos
Una alternativa al uso de páginas es tomar el objeto como base de la transferencia
de memoria. Aunque el control de la memoria resulta más complejo, el resultado es
al mismo tiempo modular y flexible, y la sincronización y el acceso se pueden
integrar limpiamente. Otra de las restricciones de este modelo es que todos los
accesos a los objetos compartidos han de realizarse mediante llamadas a los
SISTEMAS DISTRIBUIDOS
278
métodos de los objetos, con lo que no se admiten programas no modulares y se
consideran incompatibles.
Modelos de consistencia
La duplicidad de los bloques compartidos aumenta el rendimiento, pero produce un
problema de consistencia entre las diferentes copias de la página en caso de una
escritura. Si con cada escritura es necesario actualizar todas las copias, el envío de
las páginas por la red provoca que el tiempo de espera aumente demasiado,
convirtiendo este método en impracticable. Para solucionar este problema se
proponen diferentes modelos de consistencia, que establezcan un nivel aceptable
de acercamiento tanto a la consistencia como al rendimiento. Nombramos algunos
modelos de consistencia, del más fuerte al más débil: consistencia estricta,
secuencial, causal, PRAM, del procesador, débil, de liberación y de entrada.