Download partes del computador

Document related concepts
no text concepts found
Transcript
Una computadora o computador (del inglés computer y este del latín computare calcular), también denominada ordenador (del francés ordinateur, y este del latín
ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en
información útil. Una computadora es una colección de circuitos integrados y otros
componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo
indicado por un usuario o automáticamente por otro programa, una gran variedad de
secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en
función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso
al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama
programador. La computadora, además de la rutina o programa informático, necesita de
datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de
entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución,
para proporcionar el producto final del procesamiento de datos, que recibe el nombre de
"output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada,
transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s)
electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación,
pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de
almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la
calculadora no programable, es que es una máquina de propósito general, es decir, puede
realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de
programación y el hardware.
Unidad central de proceso o CPU
(conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta
instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras.
Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que
contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por
una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas
(determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una
serie de registros donde se almacena información temporalmente, y por una unidad de control
que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y
presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones
llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco
duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida
(por ejemplo, un monitor o una impresora).
Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la
cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la
secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU,
tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU
localiza la instrucción en el dispositivo de almacenamiento correspondiente.
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de
instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la
siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que
determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado
desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de
la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro
registro o se copian en una dirección de memoria determinada.
Memoria RAM
La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo
donde se almacenan temporalmente tanto los datos como los programas que la CPU está
procesando o va a procesar en un determinado momento. Por su función, es una amiga
inseparable del microprocesador, con el cual se comunica a través de los buses de datos.
Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y
recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie
de datos; antes de poder procesarlos los tiene que llevar a la memoria principal.
Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la
información que estuviera almacenada en ella.
por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy
importante; hay programas y juegos que requieren una gran cantidad de memoria para poder
usarlos. otros andarán más rápido si el sistema cuenta con más memoria RAM.
La memoria Caché
dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la
característica de ser más rápida que las otras, permitiendo que el intercambio de información
entre el procesador y la memoria principal sea a mayor velocidad.
Memoria de sólo lectura o ROM
Su nombre viene del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la
información que contiene puede ser leída pero no modificada. En ella se encuentra toda la
información que el sistema necesita para poder funcionar correctamente ya que los fabricantes
guardan allí las instrucciones de arranque y el funcionamiento coordinado de la computadora. no
son volátiles, pero se pueden deteriorar a causa de campos magnéticos demasiados potentes.
Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. por
supuesto, aunque se apague, esta memoria no se borra.
El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de
configurarse según las características particulares de cada máquina. esta configuración se guarda
en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC
gracias a una pila que hay en la placa principal.
Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina
no arranque.
Algunas PC tienen la pila soldada a la placa principal por lo que el cambio de la misma lo debe
realizar personal técnico, ya que sino se corre el riesgo de arruinar otros componentes.
Su Memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer
pero no modificar. En las computadoras IBM PC y compatibles, las memorias ROM suelen
contener el software necesario para el funcionamiento del sistema. Para crear un chip ROM, el
diseñador facilita a un fabricante de semiconductores la información o las instrucciones que se van
a almacenar.
El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como
crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo
si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños
volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a
cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM.
El teclado nos permite comunicarnos con la computadora e ingresar la información. Es
fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas
en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control.
Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar.
Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas
cuya función cambia según el programa que estemos usando
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del
PC/AT de esta compañía. Este diseño se ha mantenido como teclado estándar de la línea PS/2, y se
ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles
con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la
parte superior, en lugar de diez a la izquierda.
Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el movimiento del
cursor y para edición entre la parte principal del teclado y el teclado numérico. Otras diferencias
incluyen cambios en la posición de determinadas teclas, como Escape y Control, y modificaciones
en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado extendido y su
homónimo de Apple son similares en configuración y diseño.
Las partes del teclado
El teclado alfanumérico: Es similar al teclado de la máquina de escribir. tiene todas las teclas del
alfabeto, los diez dígitos decimales y los signos de puntuación y de acentuación.
El teclado numérico: Para que funciones el teclado numérico debe estar activada la función
"Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para
activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se
encenderá la lucecita con el indicador [Bloq Num] o [Num Lock].
Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y
las operaciones matemáticas más comunes: suma, resta, multiplicación y división.
Las teclas de Función
Estas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas
funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda
que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del
programa que se esté usando en este momento.
Las teclas de Control
Si estamos utilizando un procesador de texto, sirve para terminar un párrafo y pasar a un nuevo
renglón. Si estamos ingresando datos, normalmente se usa para confirmar el dato que acabamos
de ingresar y pasar al siguiente.
Estas teclas sirven para mover el cursor según la dirección que indica cada flecha.
Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres.
Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta
última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará
minúscula.
Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto
como números.
Esta tecla te permite insertar un carácter de manera que todo lo que escribamos a continuación se
irá intercalando entre lo que ya tenemos escrito.
Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina
superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock].
Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá
automáticamente en mayúscula. para desactivarla basta con volverla a pulsar.
La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar
distintas acciones según el programa que estemos usando.
En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor.
La tecla de control se usa en combinación con otras teclas para activar distintas opciones según el
programa que se esté utilizando.
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el
sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa
información que estamos suministrando es correcta. Los monitores muestran tanto la información
que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con
el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas.
Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y
en la resolución que sean capaces de mostrar.
Monitor
La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de
profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son
los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros
son los siguientes:
Tamaño
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener
monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas
aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el
estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las tarjetas
gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels
Resolución
Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos
más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la
calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de
25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que
disponemos de más espacio. Si trabajas con Windows la resolución ampliada es fundamental,
puedes tener mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a la vez,
sin tener que maximizar cada una cuando cambies a ellas, etc.
La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos
guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza
resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se
vea muy reducido, siendo un engorro y además pagamos por unas características que nunca
utilizaremos. Para estas resoluciones ampliadas le recomendamos: un monitor de 15 pulgadas
para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels.
Entrelazado
Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de
la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de
parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño
como para mantener el fósforo activo entre las dos pasadas. Procure que su monitor sea noentrelazado.
Frecuencia de barrido vertical
El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina
superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de
refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla
por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se
hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El
mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superior.
Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin
necesidad de entrelazar. La imagen será más nítida y estable.
Tamaño del punto (Dot Pltch)
Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo
de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente
con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy
pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más
precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno
de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels.
Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar
configuraciones en la memoria del monitor, que sea de exploración digital controlada por un
microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de
la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc.
Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung,
Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.
Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15
pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).
Filtros para el monitor
Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más
importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica,
que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de
cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es
obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula
en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan
de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las
radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF
(generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las
demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la
pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de
polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la
electricidad estática.
En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000
pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de
fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos
caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas
sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.
La alternativa LCD
Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse
como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo
y de espacio (LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad), así
como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de
dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT
hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no
hay que perder de vista esta alternativa; nunca se sabe...
Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar
lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás
elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En
los equipos actuales se habla de los procesadores Pentium MMX y Pentium II/III de Intel además
de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86, MII).
Tipos de conexión
El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa
donde se instalan. Los diferentes micros no se conectan de igual manera a las placas:
En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a
50 MHz hacia atrás). Hoy día esto no se ve.
En las de tipo Pentium (Socket 7) normales el microprocesador se instala en un zócalo especial
llamado ZIF (Zero Insertion Force) que permite insertar y quitar el microprocesador sin necesidad
de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el
microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la
actualización del microprocesador. Por ejemplo un zócalo ZIF Socket-3 permite la inserción de un
486 y de un Pentium Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro.
Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el Athlon (K7) de AMD van
conectados de una forma similar a una tarjeta gráfica o de sonido (por ejemplo). En los
procesadores de Intel, el lugar donde se instala es el Slot1 (o Slot2 en las versiones Xeon
profesionales) y en el caso del K7 se instala en el SlotA. En ambos existen unas guías de plástico
que ayudan a que el microprocesador se mantenga en su posición. Hay que mencionar que
algunos procesadores Celeron utilizan la conexión PPGA o Socket 370, similar en cierto modo al
Socket 8, con nulas capacidades de ampliación y que sólo ofrece como ventaja un pequeño ahorro
en la compra del equipo.
Valoración del rendimiento de un microprocesador
El microprocesador es uno de los componentes que hay que prestar más atención a la hora de
actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de
elementos. Esta afirmación implica lo siguiente: por ejemplo, en un Pentium de baja gama es
absurdo poner 8 Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama también es
absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay que hacer una valoración de todos los
elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un
mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además del microprocesador, la
velocidad general del sistema se verá muy influenciada (tanto o más que por el micro) debido a la
placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar
sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de
componente en particular para más información.
Hoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto
microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word,
Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, al igual que para
navegar por Internet. Sin embargo, según sean más complejos los programas, más complejos
serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium
de gama media. A los programas de retoque fotográfico se les puede poner también un
procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un
mínimo de 128 Mb. para un rendimiento óptimo, según nuestras pruebas). Y últimamente se está
incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D,
descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro
conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos
tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por
ello los micros son cada vez más y más rápidos y complejos. Aunque si lo que quieres son juegos,
mejor decántate por una aceleradora 3D, ya que se tiene una experiencia mejor en un Pentium a
133 MHz con una Voodoo Graphics que en un Pentium II/K6-2 a 300 MHz sin aceleradora. Lo ideal,
lógicamente, es un PII/K6-2 con una aceleradora gráfica
Y ya por último, diremos que el disipador + ventilador puede reducir la temperatura del micro
unos 40 grados centígrados y aumentar el rendimiento un 30%. En los procesadores actuales este
componente es imprescindible para el funcionamiento del microprocesador, que de lo contrario
terminaría quemado.
Dispositivos de Almacenamiento de un Computador.
Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como
externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o datos
pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso
aleatorio) montados directamente en la placa de circuitos principal de la computadora, o bien
en chips montados en tarjetas periféricas conectadas a la placa de circuitos principal del
ordenador. Estos chips de RAM constan de conmutadores sensibles a los cambios de la
corriente eléctrica, esto quiere decir que los datos son almacenados por tiempo limitado (hasta
que dejamos de suministrar energía eléctrica) por esta razón aparecen los dispositivos de
almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la información
de manera permanente, mientras su estado físico sea óptimo. Los dispositivos de
almacenamiento externo pueden residir dentro del CPU y están fuera de la placa de circuito
principal.
Clasificación de los Dispositivos de Almacenamiento.
Los Dispositivos de Almacenamiento se pueden clasificar de acuerdo al modo de acceso a los
datos que contienen:
Acceso secuencial: En el acceso secuencial, el elemento de lectura del dispositivo debe pasar
por el espacio ocupado por la totalidad de los datos almacenados previamente al espacio
ocupado físicamente por los datos almacenados que componen el conjunto de información a la
que se desea acceder.
Acceso aleatorio: En el modo de acceso aleatorio, el elemento de lectura accede directamente a
la dirección donde se encuentra almacenada físicamente la información que se desea localizar
sin tener que pasar previamente por la almacenada entre el principio de la superficie de
grabación y el punto donde se almacena la información buscada.
Tipos de Dispositivos de Almacenamiento
Memorias:
Memoria ROM: Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de
iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la
computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de
trabajo), dispositivos.
MemoriaRAM: Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse
también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera
mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que
necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así
como los resultados obtenidos de esto.
Memorias Auxiliares: Por las características propias del uso de la memoria ROM y el manejo
de la RAM, existen varios medios de almacenamiento de información, entre los más comunes
se encuentran: El disco duro, El Disquete o Disco Flexible, etc...
Medidas de Almacenamiento de la Información
Byte: unidad de información que consta de 8 bits; en procesamiento informático y
almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un
signo de puntuación.
Kilobyte (Kb): Equivale a 1.024 bytes.
Megabyte (Mb): Un millón de bytes o 1.048.576 bytes.
Gigabyte (Gb): Equivale a mil millones de bytes.
Dispositivos Magnéticos
Cinta Magnética: Esta formada por una cinta de material plástico recubierta de material
ferromagnético, sobre dicha cinta se registran los caracteres en formas de combinaciones de
puntos, sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo
secuencial, esto supone un inconveniente puesto que para acceder a una información
determinada se hace necesario leer todas las que le preceden, con la consiguiente perdida de
tiempo.
Tambores Magnéticos: Están formados por cilindros con material magnético capaz de retener
información, Esta se graba y lee mediante un cabezal cuyo brazo se mueve en la dirección del
eje de giro del tambor. El acceso a la información es directo y no secuencial. (Ver anexo 1)
Disco Duro: Son en la actualidad el principal subsistema de almacenamiento de información
en los sistemas informáticos. Es un dispositivo encargado de almacenar información de forma
persistente en un ordenador, es considerado el sistema de almacenamiento más importante del
computador y en él se guardan los archivos de los programas.
Disquette o Disco flexible: Un disco flexible o también disquette (en inglés floppy disk), es un
tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material
magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su denominación)
encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos, usados
usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores o computadoras
personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso.
Dispositivos Ópticos
El CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído cuantas veces se
desee, pero cuyo contenido no puede ser modificado una vez que ya ha sido grabado. Dado que
no pueden ser borrados ni regrabados, son adecuados para almacenar archivos u otros
conjuntos de información invariable.
CD-RW: posee la capacidad del CD-R con la diferencia que estos discos son regrabables lo que
les da una gran ventaja. Las unidades CD-RW pueden grabar información sobre discos CD-R y
CD-RW y además pueden leer discos CD-ROM y CDS de audio. Las interfaces soportadas son
EIDE, SCSI y USB.
DVD-ROM: es un disco compacto con capacidad de almacen ar 4.7 GB de datos en una cara del
disco, un aumento de más de 7 veces con respecto a los CD-R y CD-RW. Y esto es en una sola
cara. Los futuros medios de DVD-ROM serán capaces de almacenar datos en ambas caras del
disco, y usar medios de doble capa para permitir a las unidades leer hasta cuatro niveles de
datos almacenados en las dos caras del disco dando como resultado una capacidad de
almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los formatos de discos
CD-R y CD-RW. Entre las aplicaciones que aprovechan la gran capacidad de almacenamiento
de los DVD-ROM tenemos las películas de larga duración y los juegos basados en DVD que
ofrecen videos MPEG-2 de alta resolución, sonido inmersivo Dolby AC-3, y poderosas graficas
3D.[3] (Ver anexo 6)
DVD-RAM: este medio tiene una capacidad de 2.6 GB en una ca ra del disco y 5.2 GB en un
disco de doble cara, Los DVD-RAM son capaces de leer cualquier disco CD-R o CD-RW pero no
es capaz de escribir sobre estos. Los DVD-RAM son regrabables pero los discos no pueden ser
leídos por unidades DVD-ROM.
Pc - Cards: La norma de PCMCIA es la que define a las PC Cards. Las PC Cards pueden ser
almacenamiento o tarjetas de I/O. Estas son compactas, muy fiable, y ligeras haciéndolos ideal
para notebooks, palmtop, handheld y los PDAs,. Debido a su pequeño tamaño, son usadas para
el almacenamiento de datos, aplicaciones, tarjetas de memoria, cámaras electrónicas y
teléfonos celulares. Las PC Cards tienen el tamaño de una tarjeta del crédito, pero su espesor
varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3 milímetros (mm) de
espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm espesor. Entre los producto más
nuevos que usan PC Cards tenemos el Clik! PC Card Drive de Iomega esta unidad PC Card Tipo
II la cual puede leer y escribir sobre discos Clik! de 40 MB de capacidad, esta unidad esta
diseñada para trabajar con computadores portátiles con mínimo consumo de baterías, el
tamaño de los discos es de 2x2 pulgadas.[3] (Ver anexo 7)
Flash Cards: son tarjetas de memoria no volátil es decir conservan los datos aun cuando no
estén alimentadas por una fuente eléctrica, y los datos pueden ser leídos, modificados o
borrados en estas tarjetas. Con el rápido crecimiento de los dispositivos digitales como:
asistentes personales digitales, cámaras digitales, teléfonos celulares y dispositivos digitales de
música, las flash cards han sido adoptadas como medio de almacenamiento de estos
dispositivos haciendo que estas bajen su precio y aumenten su capacidad de almacenamiento
muy rápidamente. Recientemente Toshiba libero al mercado sus nuevas flash cards la
SmartMedia de 64 MB y el super-thin 512M-bit chip. La SmartMedia es capaz de almacenar 72
imágenes digitales con una resolución de 1800x1200 pixels y más de 1 hora de música con
calidad de CD. Entre los productos del mercado que usan esta tecnología tenemos los
reproductores de audio digital Rio de Diamond, Nomad de Creative Labs, los PDAs de Compaq,
el Microdrive de IBM con 340 MB de almacenamiento entre otros.
Dispositivos Extraíbles
Pen Drive o Memory Flash: Es un pequeño dispositivo de almacenamiento que utiliza la
memoria flash para guardar la información sin necesidad de pilas. Los Pen Drive son
resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento
portable, como los CD y los disquetes. Los sistemas operativos más modernos pueden leer y
escribir en ello sin necesidad de controladores especiales. En los equipos antiguos (como por
ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo.
Unidades de Zip: La unidad Iomega ZIP es una unidad de dis co extraíble. Está disponible en
tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se conecta a un puerto
paralelo. Este documento describe cómo usar el ZIP con Linux. Se debería leer en conjunción
con el HOWTO SCSI a menos que posea la versión IDE.
Marcas de los Dispositivos de Almacenamiento de un Computador
Hoy en día en el mercado, se encuentran infinidades de marcas de dispositivos de
almacenamiento; debido a la gran demanda que surge y por la búsqueda de la mejor calidad y
garantía del producto. Entre las marcas de mayor uso se tienen:
SAMSUNG
SEAGATE
WESTERN DIGITAL
MARKVISION
TOSHIBA
SONY
IBM
DYSAN
LG
HP
MAXTOR
KINGSTON
IMATION
TDK
Evolución Histórica de los Dispositivos de Almacenamiento en General.
Uno de los primero dispositivos de almacenamiento de información fue la tarjeta perforada de
Babagge, la cual tenía un inconveniente, no podía ser reutilizada. Luego aparece la cinta
magnética, esta si era reutilizable pero no era de acceso aleatorio (para leer un bit se debían
leer todos los anteriores), por ultimo aparecen los discos magnéticos los cuales eran
reutilizables y también de acceso aleatorio.
En la década de 1950 aparecen los dispositivos magnéticos, considerados los dispositivos de
almacenamiento de información mas generalizados en cualquier sistema, ya que estos tenían
una elevada capacidad de almacenamiento y una rapidez de acceso directo a la información.
A finales de la década de los 80’ aparecen los dispositivos ópticos los cuales fueron utilizados en
primera instancia para la televisión. En 1988 gracias a su fácil transportabilidad y su alta
capacidad de almacenaje, este dispositivo se populariza, se empieza a comercializar y a utilizar
en las computadoras. La primera generación de discos ópticos fue inventada en Phillips, y Sony
colaboro en su desarrollo.
Evolución Histórica de algunos dispositivos Específicos.
Discos Flexibles o Floppy Disk
El disco flexible nació en IBM, y a inicios de la década de los 70’ se introdujo en las unidades de
esta marca. En 1972, salio al mercado el sistema 3740 dotado de una memoria de mesa basado
en un disco flexible.
Estos discos flexibles o también llamados disquette fueron los más usados en los años 1980 y
1990, desde entonces han pasado por una serie de evoluciones en cuanto a tamaño y a
capacidad de almacenamiento, comenzando de 8 pulgadas, luego con 5 1/4 y para finalizar los
de 3 1/2, esto en cuanto a sus dimensiones, En cuanto a capacidad de almacenamiento o
memorización pasaron de tener alrededor de 100 Kbytes a poseer mas de 1 Mbytes en las
unidas de 3 1/2.
No obstante a comienzos de los años 1990, al aumentar el tamaño del los programas
informáticos, se requería mayor número de disquette para guardar una determinada
información debido a que dichos disquettes no se daban a basto. Por esta razón a finales de los
90, la distribución de programas cambió gradualmente al CD-ROM, y se introdujeron formatos
de copias de seguridad de alta densidad como el disco Zip. Con la llegada de Internet a las
masas y de un ethernet barato, el disquete ya no era necesario para guardar la información, y
fue por consecuencia suplantado.
Ahora se realizan copias de seguridad masivas en unidades de cinta de gran capacidad (como
cintas de audio digital, ing: DAT) o en CD-ROM utilizando una grabadora de discos compactos.
También se ha impuesto el uso de los llamados llaveros USB para poder transportar
cómodamente en un reducido espacio una gran cantidad de información.
De todas formas, los fabricantes eran reacios a retirar la unidad de disco flexible de los
ordenadores, argumentando que servían para mantener la compatibilidad con programas
anteriores. La empresa Apple fue la primera en eliminar el disco flexible por completo con la
puesta en circulación de su modelo iMac en 1998 el cual no tenía unidad de disco flexible. En
marzo de 2003, Dell tomó una decisión similar al hacer la unidad de disco flexible opcional en
sus ordenadores, una decisión considerada mayoritariamente como el final del disco flexible
como medio de almacenamiento e intercambio de datos mayoritario.
Aunque los disquetes han sido desplazados por los Pen Driwers, los CD, etc.; todavía se siguen
utilizando los disquetes con formato de 3 ½ pulgadas; ya que estos cuales están mucho mejor
protegidos por un plástico rígido y un escudo, plástico o metálico, que protege una ranura
existente en la superficie del material protector del disco (la ventana de lectura) que los discos
de 5 ¼ pulgadas, envueltos en un plástico de mucho menos grosor y sin protección en la
ventana de lectura. Su facilidad para el manejo habitual y las menores restricciones para su
almacenamiento, mientras no sea utilizado el soporte físico, le dan importantes ventajas sobre
los discos de 5 1/4 pulgadas.
Disco Duro
En el año 1952 IBM crea en San José (California) el primer laboratorio dedicado
exclusivamente a la investigación y desarrollo de dispositivos de almacenamiento, dicho
proyecto estaba dirigido por el Ingeniero Reynold Johnson, ingeniero de la conocida marca la
cual ya destacaba por la invención de dispositivos mecánicos y electromagnéticos (inventor de
los primeros correctores automáticos de exámenes). La idea de un dispositivo magnético de
almacenamiento (que luego recibiría el nombre de Disco duro) consistente en una superficie
giratoria y una cabeza que pudiera leer y escribir impulsos magnéticos sobre ella comenzaba
aquí.
No fue sino hasta aproximadamente dos años después en que Johnson completaba este
proyecto, que originalmente (y como casi todo en la informática hace unos años) sólo
beneficiaria a los militares estadounidenses. El RAMAC ("Random Access Method of
Accounting and Control") fue el primer disco duro de la historia de la informática. Contaba con
50 platos de 24 pulgadas de diámetro que giraban a una velocidad de 1200 rpm, un tiempo de
acceso medio de 1 segundo y la entonces increíble capacidad de 5 megabytes. Gracias a las
mejoras que le realizara Johnson a este dispositivo en los siguientes años aparece RAMAC-350
por el cual se hizo merecedor de varios premios.
A partir de entonces estos dispositivos no han dejado de evolucionar. Dicha evolución ha sido
que han doblado su capacidad de almacenaje aproximadamente cada 18 meses bajando sus
costos, aumentando su capacidad de almacenaje y aumentando su velocidad. Actualmente los
discos están trabajando con una interfaz de mayor velocidad denominada UltraDMA/66 o
UltraATA/66 la cual posee el doble de la velocidad aproximadamente 66.7 Mbytes por segundo
que la antigua UltraDMA/33 que fue el modelo estándar usado durante varios años.
Estructura del Disco Duro.
Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a
entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos
o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones
magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran
agrupados uno sobre otro atravesados por un eje, y giran continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara.
Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una
distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el
diámetro de un cabello humano es de unas 4.000 micropulgadas).
Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando
forma a la información. (dependiendo de la dirección hacia donde estén orientadas las
partículas, valdrán 0 o valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la densidad de
almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el
punto magnético y más información podrá albergar.
Tecnologías Futuras.
Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de
prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener
una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en
los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico,
el concepto que hay detrás del mismo no es nuevo.
De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones
de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para
almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos.
Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006.
Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada
tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el
almacenamiento de datos en los próximos años. Para producir este pequeño punto es necesario
comprimir el haz de láser en un cono convergente de luz. La capacidad total de lectura se puede
aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un
tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado
de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azulvioleta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a
mayores capacidades. [7]
Conclusiones
Como conclusiones, veamos los procesadores que os recomendamos. de una manera totalmente
subjetiva.
Sobre los procesadores de Intel. El Celeron de Intel, alias "Covington", al carecer de memoria
caché L2, va bastante mal, incluso con un rendimiento a veces inferior al Pentium MMX (el Celeron
no es más que una estrategia de Intel para que el mercado evolucione hacia el Slot 1). Por ello,
descarta el Celeron, ya que, aunque puede ser bueno para algunas tareas, le supera algunos
procesadores de otras marcas en el mismo nivel de precio, como el K6 o el K6-2 de AMD (procura
que no te vendan un ordenador Celeron con una frase que se está volviendo bastante típica "Todo
un Pentium II por xxx ptas". Un procesador a considerar es el nuevo Celeron "A", alias
"Mendocino", el cual lleva 128 Kb. de caché L2, el cual tiene un rendimiento prácticamente igual
que el Pentium II de sus mismos MHz. Si duda, este procesador reemplazará tanto a los Celeron
como a los Pentium II de sus mismos MHz (266-333 por ahora). También Intel posee unos micros
Celeron A con otro tipo de conexión, PPGA (similar al socket 8), que ofrecen un ahorro a la hora de
comprar la placa base, pero que descartaremos sin dudarlo, ya que los micros están al mismo
precio y el socket PPGA ofrece capacidades de ampliación totalmente nulas. Sobre el Pentium II,
muy popular y extendido, es un micro muy interesante. Más caro que el Mendocino y con
rendimientos no muy superiores, ofrece muy buenos resultados a la hora del trabajo en
programas tridimensionales gracias a la avanzada unidad de cálculo de coma flotante, así como
una buena ejecución de programas en entorno multitarea como Windows NT. Sin embargo, en
tareas más sencillas, como el uso de Windows 95/98 o los programas de ofimática, se ven
claramente superados por los procesadores de AMD, mucho más económicos, como veremos
dentro de poco. Sobre la última baza de Intel, el Pentium III, en realidad no es más que un Pentium
II con nuevas instrucciones multimedia. Sin estas instrucciones, va prácticamente igual que su
predecesor y bajo ciertas situaciones peor (se ve compensado por un aumento en los MHz). Los
procesadores de Intel hasta el Pentium III han sido superados de lejos por los micros de AMD,
veremos qué tal van los próximos de Intel: Coppermine (un Pentium III con bus de 133 MHz,
tecnología de 0,18 micras y 256 kb de caché L2 en el micro a la misma velocidad de reloj). Sin
embargo, en caso de querer hacer una configuración multiprocesador (2 o 4 micros en adelante),
sólo puede hacerse con micros de Intel, ya que los AMD no soportan tales conexiones, al menos
hasta la llegada del Athlon (K7).
Y ya por último comentaremos los micros de AMD. Todo empezó por una auténtica joya que dio y
está dando mucha guerra a Intel: el K6-2 de AMD. Este procesador incorpora la nueva tecnología
3D Now!, 21 nuevas instrucciones en el procesador, la cual ha echo a Intel adelantar medio año el
lanzamiento de su procesador "Katmai" (el Pentium III, que no es más que un Pentium II con
MMX2). El K6-2 tiene un bus de 100 MHz, ancho de transistor de 0,25 micras, soporta AGP y todo
el resto de características que tiene el Pentium II, pero en una plataforma Socket 7 como la del
Pentium II. Y el 3D Now! del K6-2 verdaderamente funciona, por lo menos el Quake II va bastante
más rápido en la versión especial para 3D Now!. Con el 3D Now!, el rendimiento de un K6-2 a 300
Mhz pasa de igualar en rendimiento de un Pentium II 300 a casi un Pentium II 400. Más
recientemente, AMD ha lanzado su nuevo K6-3. Más que un K6-2 mejorado, es un procesador
totalmente nuevo, con un diseño especial de 3 tipos de memoria caché (L1 y L2 en el micro y L3 en
la placa) que ha sido el primer micro de AMD en superar en prácticamente todos los aspectos a un
Intel y en dejarle atrás, ya que el K6-2 tenía ciertas flaquezas en la unidad de coma flotante (si el
programa que ejecuta no usa 3DNow!) . Actualmente es el micro más recomendable, de mejor
calidad precio, marcha mucho mejor que un K6-2 y la placa base es relativamente más económica.
Y la última bomba es el Athlon (K7) que aún no está a la venta, pero que supera y deja muy muy
atrás a micros de Intel en todos los aspectos, incluida la unidad de cálculo de coma flotante.
Estructura interna de un disco duro
 Tamaño de clúster y espacio disponible
Un cluster se trata de una agrupación de varios sectores para formar una unidad de asignación.
Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto
no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a
nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos
empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster.
Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas.
Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que
subsana esta limitación, además de otros problemas.
Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a
entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o
discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas.
Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno
sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos
cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia
de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un
cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que
alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la
dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la densidad de
almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el
punto magnético y más información podrá albergar.
 Algunos conceptos
Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la
velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el
tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo
forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que
tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean
los datos en pasar por el cabezal.
Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600
rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los
discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y
actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.
Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos
que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos
concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una
misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es
el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes
discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos
conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de
alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base
modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter
algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior
del disco).
 El estándar IDE
"Integrated Drive Electronics", o IDE, fue creado por la firma Western Digital, curiosamente por
encargo de Compaq para una nueva gama de ordenadores personales. Su característica más
representativa era la implementación de la controladora en el propio disco duro, de ahí su
denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el
Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde
los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de
disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el
bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de
normas a las que deben acogerse los fabricantes de unidades de este tipo.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para
realizar estos movimientos de datos, que veremos en el apartado "Modos de Transferencia". La
interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y
estuvo durante un tiempo a la altura de las exigencias del mercado.
No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy
importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en
efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de
prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos
unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en
el apartado "El papel de la BIOS") no solía exceder de los 528 Megas. Se imponía una mejora, y
¿quién mejor para llevarla a cabo que la compañía que lo creó?
 Enhanced IDE
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de
flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de
transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de
transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros
físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas,
denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones
(aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas
capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo
tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a
soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño
del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra
esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades
CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado
"Otros términos"). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en
todo caso un menor tamaño o más bien una superior integración de un mayor número de
componentes en el mismo espacio.
Periféricos de entrada de información.
Son los elementos a través de los que se introduce información a la computadora. En este
apartado se encuentran el teclado, el ratón, los scanners, etc.
Periféricos de almacenamiento de la información.
Son subsistemas que permiten a la computadora almacenar, temporal o indefinidamente, la
información o los programas.
Los dispositivos de almacenamiento, llamados también memorias auxiliares o masivas, son un
soporte de apoyo para la computadora en la realización de sus tareas, ya que puede enviar a ellos,
temporalmente, desde la memoria principal parte de la información que no van a utilizar en esos
momentos, dejando parte del área de trabajo libre para trabajar más comodamente, y mantenerla
almacenada hasta que sea necesaria su utilización, momento en que la volverá a trasladar a la
memoria principal.
Entre los dispositivos de almacenamiento se pueden destacar los discos magnéticos y las cintas.
Un elemento que está obteniendo cada vez mayor aceptación es el CD-ROM.
Periféricos de salida de la información.
Son los periféricos que transmiten los resultados obtenidos tras el proceso de la información por la
computadora al exterior del sistema informático para que pueda ser utilizado por los seres
humanos u otros sistemas diferentes.
Las pantallas de computadora e impresoras conectadas a los sistemas informáticos son los medios
de representación de la información más extendidos
Periféricos de comunicaciones.
Estos subsistemas están dedicados a permitir la conexión de la computadora con otros sistemas
informáticos a través de diversos medios; el medio más común es la línea telefónica. El periférico
de comunicaciones más utilizado es el modem.
También existen periféricos que comparten características particulares de varios de ellos
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las
comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para
esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de
difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e
interacción entre los individuos y sus ordenadores independientemente de su localización
geográfica.
La Internet ha significado una revolución sin precedentes en el mundo de la informática y de las
comunicaciones y que ha transformado a la humanidad. Han contribuido a ello los inventos del
teléfono, la radio, los satélites, las computadoras, dispositivos de hardware, los protocolos o
estándares de comunicaciones y software especializados, tales como navegadores, correo
electrónico, FTP, video conferencias, etc.
Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de "estar a la última",
sino por aprovechar las innegables y enormes posibilidades que se abren y se presentan en este
ámbito. Ya se habla de ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer
cosas tan dispares como comprar entradas para conciertos, comunicarse mediante correo
electrónico, ver qué está ocurriendo en la Plaza de Bolivar en este momento o consultar las
imágenes que manda el Meteosat para hacer nuestra propia predicción del tiempo.
Informarse de las posibilidades de Internet y de cómo acceder a ellas es el primer paso para
empezar a caminar por estas carreteras del futuro.
Qué es Internet?
Internet es una "red de redes" de ordenadores distribuidos por todo el mundo. Quizá esto no
signifique mucho para un usuario final, pero sí lo hará el saber que esta red permite ejecutar un
programa, ver un documento, enviar un mensaje o cientos de cosas más a miles de kilómetros de
distancia y sin que el usuario sea consciente de ello.
Detrás de esta aparente simplicidad, se esconden millones de ordenadores que funcionan con
sistemas operativos distintos, y que están a su vez conectados a redes más pequeñas, que muchas
veces, nada tienen que ver con lo que es Internet. Para que esta comunicación sea posible, es
necesario establecer una forma de "hablar" las máquinas, de manera que se puedan entender
entre ellas. Esto se consigue con una serie de protocolos (acuerdos para comunicarse) estándar.
Los más importantes son IP (Internet Protocol) y TCP (Transmission Control Protocol).
El éxito y crecimiento de Internet se debe fundamentalmente a dos razones. La primera e
imprescindible, es el espectacular desarrollo en los últimos años de las capacidades de
procesamiento y almacenamiento de los ordenadores, así como el gran aumento en la capacidad
de transmisión de las redes de las computadoras. La segunda se refiere a factores sociológicos
relacionados con la denominada "Sociedad de la Información", la cual demanda día a día mayor
cantidad de información de la forma más fiable, rápida y segura posible.
Placas base
Una primera distinción la tenemos en el formato de la placa, es decir, en sus
propiedades físicas.
Dicho parámetro está
directamente relacionado
con la caja, o sea, la carcasa
del ordenador.
Hay dos grandes estándares:
ATX y Baby AT
La segunda distinción la
haremos por el zócalo de la
CPU, así como los tipos de
procesador que soporte y la
cantidad de ellos. Tenemos el estándar Tipo 4 o 5 para Pentium, el tipo 7 para Pentium y
MMX, el Super 7 para los nuevos procesadores con bus a 100 Mhz, el tipo 8 para Pentium
Pro, el Slot 1 para el Pentium II y el Celeron, y el Slot 2 para los Xeon. Estos son los más
conocidos.
La siguiente distinción la haremos a partir del chipset que utilicen:
Los más populares son los de Intel. Estos están directamente relacionados con los
procesadores que soportan, así tenemos que para el Pentium están los modelos FX, HX,
VX y TX.
Para Pentium PRO los GX, KX y FX. Para Pentium II y sus derivados, además del FX, los LX,
BX, EX, GX y NX. Para Pentium MMX se recomienda el TX, aunque es soportado por los del
Pentium 'Classic'.
También existen placas que usan como chipset el de otros fabricantes como VIA, SiS, UMC
o Ali (Acer).
El siguiente parámetro es el tipo de bus. Hoy en día el auténtico protagonista es el
estandar PCI de 32 bits en su revisión 2.1, pero también es importante contar con alguna
ranura ISA de 16 bits, pues algunos dispositivos como módems internos y tarjetas de
sonido todavía no se han adaptado a este estándar, debido básicamente a que no
aprovechan las posibilidades de ancho de banda que éste posee.
Tambien existe un PCI de 64 bits, aunque de momento no está muy visto en el mundo PC.
Otros tipos de bus son el ISA de 8 bits, no usado ya por ser compatible con el de 16 bits, el
EISA, usado en algunas máquinas servidoras sobre todo de Compaq, el VL-Bus, de moda
en casi todos los 486, o el MCA, el famoso bus microcanal en sus versiones de 16 y 32 bits
patrocinado por IBM en sus modelos PS/2.
Otra característica importante es el formato y cantidad de zócalos de memoria que
admite. En parte viene determinado por el chipset que utiliza. La más recomendable es la
DIMM en formato SDRAM y como mínimo 3 zócalos. En el caso de módulos SIMM de 72
contactos el mínimo es de 6 (recordad que van de 2 en 2).
Por último, en las placas basadas en socket 7 y super 7, tambien debemos tener en
cuenta la memoria caché. Normalmente está directamente soldada a la placa base y en
cantidades de 512 o 1024 Kb. Para saber más sobre ella acuda a la sección de memorias
ATX:
El estandar ATX es el más moderno y el que mayores ventajas ofrece. Está promovido por
Intel, aunque es una especificación abierta, que puede ser usada por cualquier fabricante
sin necesidad de pagar royalties. La versión utilizada actualmente es la 2.01.
Entre las ventajas de la placa cabe mencionar una mejor disposición de sus componentes,
conseguida básicamente girandola 90 grados. Permite que la colocación de la CPU no
moleste a las las tarjetas de expansión, por largas que sean. Otra ventaja es un sólo
conector de alimentación, que además no se puede montar al revés.
La memoria está colocada en un lugar más accesible.
La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir aire fresco de
su ventilador.
Los conectores para los dispositivos IDE y disqueteras quedan más cerca, reduciendo la
longitud de los cables y estorbando menos la circulación del aire en el interior de la caja.
Además de todas estas ventajas dicho estandar nos da la posibilidad de integrar en la
placa base dispositivos como la tarjeta de video o la tarjeta de sonido, pero sacando los
conectores directamente de la placa, dándonos un diseño más compacto, y sin necesidad
de perder ranuras de expansión.
Así podemos tener integrados los conectores para teclado y ratón tipo PS/2, série,
paralelo o USB que son habituales en estas placas, pero también para VGA, altavoces,
micrófono, etc... sin apenas sacrificar espacio.
Baby AT:
Este formato está basado en el original del IBM PC-AT, pero de dimensiones más
reducidas gracias a la mayor integración en los componentes de hoy en día, pero
físicamente compatible con aquel.
Aún hoy en día es el más extendido. En este tipo de placas es habitual el conector para el
teclado 'gordo'
Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de las cajas que las
soportan, aunque esta ventaja desaparecerá a medida que se vaya popularizando su
contrincante.
Leyendo las ventajas de las placas ATX se pueden entrever los inconvenientes de dicha
arquitectura.
Tarjeta madre por Manuel Nicolas Mabroidis Ramos
Características de las placas base Baby-AT. por César San Juan Revilla
Características de las placas base ATX. por César San Juan Revilla
Prueba: ABIT BP6: Placa Socket 370 biprocesador.
Características de los chipset de Intel.
Características de los puertos U.S.B. (Universal Serial Bus)
Lista de placas base y sus características por Juan Carlos Bogo
Tutorial sobre los buses del PC y su historia por Alberto Barreu y Alejandro Lloro
Para más información sobre los puertos serie y paralelo, vista nuestra sección dedicada a
los puertos
Nuestra sección de software para las placas base
Información sobre A.C.P.I. (Advanced Configuration & Power Interface) (inglés)
Información sobre ATX de Intel (inglés)
Más información sobre ATX (inglés)
Información sobre el bus PCI (inglés)