Download el modem

Document related concepts
no text concepts found
Transcript
Universidad Técnica de Machala
Facultad de Ciencias Empresariales
Escuela de Economía
Carrera: Comercio Internacional - Vespertino
1. MICROPROCESADOR
El microprocesador, o simplemente procesador, es el circuito integrado central y más
complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar
por analogía como el "cerebro" de una computadora.
El procesador es un circuito integrado constituido por millones de componentes
electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC
catalogado como microcomputador.
Desde el punto de vista funcional es, básicamente, el encargado de realizar toda
operación aritmético-lógica, de control y de comunicación con el resto de los
componentes integrados que conforman un PC, siguiendo el modelo base de Von
Neumann. También es el principal encargado de ejecutar los programas, sean de
usuario o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel,
realizando operaciones elementales, básicamente, las aritméticas y lógicas, tales como
sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros,
una unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo
microprocesador también incluye una unidad de cálculo en coma flotante, (también
conocida como "co-procesador matemático"), que permite operaciones por hardware
con números decimales, elevando por ende notablemente la eficiencia que
proporciona sólo la ALU con el cálculo indirecto a través de los clásicos números
enteros. Aparece en computadoras de cuarta generación.
El microprocesador está conectado, generalmente, mediante un zócalo específico a la
placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un
sistema de refrigeración, que consta de un disipador de calor fabricado en algún
material de alta conductividad térmica, como cobre o aluminio, y de uno o más
ventiladores que fuerzan la expulsión del calor absorbido por el disipador; entre éste
último y la cápsula del microprocesador suele colocarse pasta térmica para mejorar la
conductividad térmica. Existen otros métodos más eficaces, como la refrigeración
líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se
utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas
de overclocking.
La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por
ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla,
o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La
frecuencia de reloj se mide hercios, pero dada su elevada cifra se utilizan múltiplos,
como el megahercio o el gigahercio.
Cabe destacar que la frecuencia de reloj no es el único factor determinante en el
rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de
una misma micro arquitectura.
Es importante notar que la frecuencia de reloj efectiva no es el producto de la
frecuencia de cada núcleo físico del procesador por su número de núcleos, es decir,
uno de 3 GHz con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz,
independientemente de su número de núcleos.
Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria
caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que
soporta, su arquitectura, etc.; por lo que sería difícilmente comparable el rendimiento
de dos procesadores distintos basándose sólo en su frecuencia de reloj.
Un computador de alto rendimiento puede estar equipado con varios
microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez,
estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una
porción interna del microprocesador cuasi-independiente que realiza todas las
actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a
fin de repartir de manera más eficiente el procesamiento.
Estos últimos años ha existido una tendencia de integrar el mayor número de
elementos de la PC dentro del propio procesador, aumentando así su eficiencia
energética y su rendimiento. Una de las primeras integraciones, fue introducir la
unidad de coma flotante dentro del encapsulado, que anteriormente era un
componente aparte y opcional situado también en la placa base, luego se introdujo
también el controlador de memoria, y más tarde un procesador gráfico dentro de la
misma cámara, aunque no dentro del mismo encapsulado. Posteriormente se llegaron
a integrar completamente en el mismo encapsulado (die).
Respecto a esto último, compañías tales como Intel ya planean integrar el puente sur
dentro del microprocesador, eliminando completamente ambos circuitos auxiliares de
la placa.
También la tendencia general, más allá del mercado del PC, es integrar varios
componentes en un mismo chip para dispositivos tales como Tablet PC, teléfonos
móviles, videoconsolas portátiles, etc. A estos circuitos integrados "todo en uno" se los
conoce como system on a chip; por ejemplo Vidia Tegra o Samsung Hummingbird,
ambos integran microprocesador, unidad de procesamiento gráfico y controlador de
memoria dentro de un mismo circuito integrado.
2. DESCRIBIR LOS BIOS DE UN PC
El BIOS (sigla en inglés de basic input/output system; en español "sistema básico de
entrada y salida") es un software que localiza y reconoce todos los dispositivos
necesarios para cargar el sistema operativo en la memoria RAM; es un software muy
básico instalado en la placa base que permite que ésta cumpla su cometido.
Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del
hardware del sistema que, como mínimo, maneja el teclado y proporciona una salida
básica (emitiendo pitidos normalizados por el altavoz de la computadora si se
producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje
ensamblador. El primer uso del término "BIOS" se dio en el sistema operativo CP/M, y
describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida
directamente al hardware (las máquinas de CP/M usualmente tenían un simple
cargador arrancable en la memoria de sólo lectura, y nada más). La mayoría de las
versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es
análogo al BIOS de CP/M.
El BIOS es un sistema básico de entrada/salida que normalmente pasa inadvertido para
el usuario final de computadoras. Se encarga de encontrar el sistema operativo y
cargarlo en la memoria RAM. Posee un componente de hardware y otro de software;
este último brinda una interfaz generalmente de texto que permite configurar varias
opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué
dispositivos de almacenamiento iniciará el sistema operativo (Microsoft Windows,
GNU/Linux, Mac OS X, etc.).
El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una
salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base
cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser
conectado. Estos mensajes de error son utilizados por los técnicos para encontrar
soluciones al momento de armar o reparar un equipo.
El BIOS antiguamente residía en memorias ROM o EPROM pero desde mediados de los
90 comenzó a utilizarse memorias flash que podían ser actualizadas por el usuario. Es
un programa tipo firmware. El BIOS es una parte esencial del hardware que es
totalmente configurable y es donde se controlan los procesos del flujo de información
en el bus del ordenador, entre el sistema operativo y los demás periféricos. También
incluye la configuración de aspectos importantes de la máquina.
3. DESCRIBIR LAS TECNOLOGÍAS DE INFORMACIÓN Y LA COMUNICACIÓN (TIC)
Torre de telecomunicaciones de Collserola, (Barcelona).
Las tecnologías de la información y la comunicación (TIC, Tics o bien NTIC para
Nuevas Tecnologías de la Información y de la Comunicación o IT para «Information
Technology») agrupan los elementos y las técnicas utilizadas en el tratamiento y la
transmisión de las informaciones, principalmente de informática, internet y
telecomunicaciones.
Por extensión, designan el sector de actividad económica.
Las tecnologías de la información y la comunicación no son ninguna panacea ni
fórmula mágica, pero pueden mejorar la vida de todos los habitantes del planeta. Se
disponen de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de
instrumentos que harán avanzar la causa de la libertad y la democracia, y de los
medios necesarios para propagar los conocimientos y facilitar la comprensión mutua"
(Kofi Annan, Secretario general de la Organización de las Naciones Unidas, discurso
inaugural de la primera fase de la WSIS, Ginebra 2003)[1]
El uso de las tecnologías de información y comunicación entre los habitantes de una
población, ayuda a disminuir en un momento determinado la brecha digital existente
en dicha localidad, ya que aumentaría el conglomerado de usuarios que utilizan las Tic
como medio tecnológico para el desarrollo de sus actividades y por eso se reduce el
conjunto de personas que no las utilizan.
4. DESCRIBIR GRAFICA Y TEÓRICAMENTE AL MODEM
MODEM ANTIGUO
MODEM ACTUAL
Un módem es un dispositivo que sirve para enviar una señal llamada moduladora
mediante otra señal llamada portadora. Se han usado módems desde los años 60,
principalmente debido a que la transmisión directa de las señales electrónicas
inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de
audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de
metros) para su correcta recepción. Es habitual encontrar en muchos módems de red
conmutada la facilidad de respuesta y marcación automática, que les permiten
conectarse cuando reciben una llamada de la RTPC (Red Telefónica Pública
Conmutada) y proceder a la marcación de cualquier número previamente grabado por
el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las
operaciones de establecimiento de la comunicación.
EL MODEM
El modem es otro de los periféricos que con el tiempo se ha convertido ya en
imprescindible y pocos son los modelos de ordenador que no estén conectados en red
que no lo incorporen. Su gran utilización viene dada básicamente por dos motivos:
Internet y el fax, aunque también le podemos dar otros usos como son su utilización
como contestador automático incluso con funciones de centralita o para conectarnos
con la red local de nuestra oficina o con la central de nuestra empresa.
Aún en el caso de estar conectado a una red, ésta tampoco se libra de éstos
dispositivos, ya que en este caso será la propia red la que utilizará el modem para
poder conectarse a otras redes o a Internet estando en este caso conectado a nuestro
servidor o a un router.
Lo primero que hay que dejar claro es que los modem se utilizan con líneas
analógicas, ya que su propio nombre indica su principal función, que es la de modular-
demodular la señal digital proveniente de nuestro ordenador y convertirla a una forma
de onda que sea asimilable por dicho tipo de líneas.
Es cierto que se suelen oír expresiones como modem ADSL o incluso modem RDSI,
aunque esto no es cierto en estos casos, ya que estas líneas de tipo digital no necesitan
de ningún tipo de conversión de digital a analógico, y su función en este caso es más
parecida a la de una tarjeta de red que a la de un modem.
Uno de los primeros parámetros que lo definen es su velocidad. El estándar más
habitual y el más moderno está basado en la actual norma V.90 cuya velocidad
máxima está en los 56 Kbps (Kilobites por segundo). Esta norma se caracteriza por
un funcionamiento asimétrico, puesto que la mayor velocidad sólo es alcanzable
"en bajada", ya que en el envío de datos está limitada a 33,6 Kbps.
Otra consideración importante es que para poder llegar a esta velocidad máxima se
deben dar una serie de circunstancias que no siempre están presentes y que
dependen totalmente de la compañía telefónica que nos presta sus servicios,
pudiendo ser en algunos casos bastante inferiores.
Evidentemente, el modem que se encuentre al otro lado de la línea telefónica, sea
nuestro proveedor de Internet o el de nuestra oficina debe ser capaz de trabajar a la
misma velocidad y con la misma norma que el nuestro, ya que si no la velocidad que se
establecerá será la máxima que aquel soporte.
Este detalle ha sido extremadamente importante en los modem que utilizaban los
distintos estándares de 56K anteriores a la norma V.90, ya que gracias a ello y
mediante una simple actualización ha sido posible no quedarse con un modelo
desfasado.
Igualmente algunos modelos que funcionaban a 33,6 Kbps han podido ser actualizados
y funcionar a 56 Kbps con el mismo método y sin necesidad de actualizar el hardware.
Modem externos para puerto serie
Modem interno
Modem externos para puerto USB
Cómo funciona
El modulador emite una señal denominada portadora. Generalmente, se trata de una
simple señal eléctrica sinusoidal de mucha mayor frecuencia que la señal moduladora.
La señal moduladora constituye la información que se prepara para una transmisión
(un módem prepara la información para ser transmitida, pero no realiza la
transmisión). La moduladora modifica alguna característica de la portadora (que es la
acción de modular), de manera que se obtiene una señal, que incluye la información
de la moduladora. Así el demodulador puede recuperar la señal moduladora original,
quitando la portadora. Las características que se pueden modificar de la señal
portadora son:



Amplitud, dando lugar a una modulación de amplitud (AM/ASK).
Frecuencia, dando lugar a una modulación de frecuencia (FM/FSK).
Fase, dando lugar a una modulación de fase (PM/PSK)
También es posible una combinación de modulaciones o modulaciones más complejas
como la modulación de amplitud en cuadratura
Módems para PC
La distinción principal que se suele hacer es entre módems internos y módems
externos, aunque recientemente han aparecido módems llamados "módems
software", más conocidos como "winmódems" o "linuxmódems", que han complicado
un poco el panorama. También existen los módems para XDSL, RDSI, etc. y los que se
usan para conectarse a través de cable coaxial de 75 ohms (cable modems).

Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos
los diferentes componentes que forman el módem. Existen para diversos tipos
de conector:
o Bus ISA: debido a las bajas velocidades que se manejan en estos
aparatos, durante muchos años se utilizó en exclusiva este conector,
hoy en día en desuso (obsoleto).
o Bus PCI: el formato más común en la actualidad, todavía en uso.
o AMR: en algunas placas; económicos pero poco recomendables por su
bajo rendimiento. Hoy es una tecnología obsoleta.
La principal ventaja de estos módems reside en su mayor integración con el
ordenador, ya que no ocupan espacio sobre la mesa y reciben energía eléctrica
directamente del propio ordenador. Además, suelen ser algo más baratos
debido a que carecen de carcasa y transformador, especialmente si son PCI (en
este caso, son casi todos del tipo "módem software"). Por el contrario, son algo
más complejos de instalar y la información sobre su estado sólo puede
obtenerse por software.

Externos: similares a los anteriores, pero externos al ordenador o PDA. La
ventaja de estos módems reside en su fácil portabilidad entre ordenadores
diferentes (algunos de ellos más fácilmente transportables y pequeños que
otros), además de que es posible saber el estado del módem (marcando,
con/sin línea, transmitiendo...) mediante los leds de estado que incorporan. Por
el contrario, y obviamente, ocupan más espacio que los internos.
5. HABLAR DE LAS GENERALIDADES Y/O HISTORIA DEL TECLADO Y MONITOR.
 GENERALIDADES DEL TECLADO
En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado
en el teclado de las máquinas de escribir, que utiliza una disposición de botones o
teclas, para que actúen como palancas mecánicas o interruptores electrónicos que
envían información a la computadora. Después de las tarjetas perforadas y las cintas
de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el
principal medio de entrada para las computadoras. El teclado tiene entre 99 y 127
teclas aproximadamente, y está dividido en cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a
F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por
ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a
ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones,
contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una
máquina de escribir, además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene
algunas teclas especiales como Imp, Pant, Blog de desplazamiento, pausa, inicio, fin,
insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el
punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al
presionar la tecla Blog Num, contiene los números arábigos organizados como en una
calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de
las cuatro operaciones básicas: suma +, resta -, multiplicación * y división /; también
contiene una tecla de Intro o.
 HISTORIA DEL TECLADO
Disposición de las teclas
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales
eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño
martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al
escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su
posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera
la pulsación era más lenta con el fin de que los martillos se atascaran con menor
frecuencia. Sobre la distribución de los caracteres en el teclado surgieron dos variantes
principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios
en la disposición según las teclas más frecuentemente usadas en cada idioma. A los
teclados en su versión para el idioma español además de la Ñ, se les añadieron los
caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç)
aunque estos caracteres son de mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores,
con sus teclados también eléctricos, se consideró seriamente modificar la distribución
de las letras en los teclados, colocando las letras más corrientes en la zona central; es
el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los
fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló
debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse
al nuevo teclado, y que ello perjudicara la introducción de las computadoras
personales, que por aquel entonces se encontraban en pleno auge.
Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos
Primeros teclados
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los
primeros teclados solían ser un terminal de computadora que se comunicaba por
puerto serial con la computadora. Además de las normas de teletipo, se designó un
estándar de comunicación serie, según el tiempo de uso basado en el juego de
caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con
impresora (las primeras computadoras carecían de monitor, por lo que solían
comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a
un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se
generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una
de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de teclados y de
tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la
fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos
incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el
chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son
casos contados los que recurren o soportan comunicación serial (curiosamente es la
tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX
establecerán una norma sobre el teclado, y los diferentes clones del TRS-80 seguirán el
diseño del clonado.
Generación 16 bits
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia
más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102
teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con cuatro
bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada lado de
la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o
12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes
bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas
variantes este será el esquema usado por los Atari ST, los Commodore Amiga (desde el
Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon
Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema
bloque alfanumérico + bloque numérico, pero también producen teclados extendidos
AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de
"indestructibles", pues tras más de 10 años de uso continuo en entornos como las
aseguradoras o la administración pública seguían funcionando como el primer día. Con
la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a
incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de
calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard,
añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los
teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de
CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla
sensible al tacto o bola trazadora.
Teclados con USB
Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es
con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie
cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de
hacerlo independiente del hardware al que se conecta. El estándar define scancodes
de 16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del
protocolo,
llamados
NoEvent,
ErrorRollOver,
POSTFail,
ErrorUndefined,
respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift,
LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)
Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos
lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación
de los teclados de computadora y máquinas de escribir que se utilizan habitualmente
en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras
letras del teclado, comenzando por la izquierda en la fila superior. El teclado en
español o su variante latinoamericana son teclados QWERTY que se diferencian del
inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas. Se han sugerido
distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales
como mayores velocidades de tecleado. La alternativa más famosa es el Teclado
Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos:
mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte
superior izquierda de una tecla, se emplea la tecla mayúscula, etiquetada como "↑".
Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se
emplea la tecla Alt-Gr
 GENERALIDADES DEL MONITOR
Introducción
El monitor es uno de los principales dispositivos de salida de una computadora por lo
cual podemos decir que nos permite visualizar tanto la información introducida por el
usuario como la devuelta por un proceso computacional.
La tecnología de estos periféricos ha evolucionado mucho desde la aparición de las PC,
desde los viejos monitores de fósforo verde hasta los nuevos de plasma. Pero de
manera mucho más lenta que otros componentes, como microprocesadores, etc.
Sus configuraciones han ido evolucionando según las necesidades de los usuarios a
partir de la utilización de aplicaciones más sofisticadas como el diseño asistido por
computadoras o el aumento del tiempo de estancia delante de la pantalla y q se ha
arreglado aumentando el tamaño de la pantalla y la calidad de la visión.
Monitores CRT
El monitor esta basado en un elemento CRT (Tubo de rayos catódicos), los actuales
monitores, controlados por un microprocesador para almacenar muy diferentes
formatos, así como corregir las eventuales distorsiones, y con capacidad de presentar
hasta 1600x1200 puntos en pantalla. Los monitores CRT emplean tubos cortos, pero
con la particularidad de disponer de una pantalla completamente plana.
Monitores color:
Las pantallas de estos monitores están formadas internamente por tres capas de
material de fósforo, una por cada color básico (rojo, verde y azul). También consta de
tres cañones de electrones, e igual que las capas de fósforo hay una por cada color.
Para formar un color en pantalla que no sea ninguno de los colores básicos, se
combina las intensidades de loas haces de electrones de los tres colores básicos.
Monitores monocromáticos:
Muestra por pantalla u solo color: negro sobre blanco o ámbar, o verde sobre negro.
Uno de estos monitores con una resolución equivalente a la de un monitor a color, si
es de buena calidad, generalmente es más nítido y legible.
Funcionamiento de un monitor CRT
En la parte trasera del tubo encontramos la rejilla catódica, que envía electrones a la
superficie interna del tubo. Estos electrones al estrellarse sobre el fósforo hacen que
este se ilumine. Un CRT es básicamente un tubo vacío con un cátodo (el emisor de luz
electrónico y un ánodo (la pantalla recubierta de fósforo) que permiten a los
electrones viajar desde el terminal negativo al positivo. El yugo del monitor, una
bobina magnética, desvía la emisión de electrones repartiéndolo por la pantalla, para
pintar las diversas líneas que forman un cuadro o imagen completa.
Los monitores monocromos utilizan un único tipo de fósforo pero los monitores de
color emplean un fósforo de tres colores distribuidos por triadas. Cada haz controla
uno de los colores básicos: rojo, azul y verde sobre los puntos correspondientes de la
pantalla.
A medida que mejora la tecnología de los monitores, la separación entre los puntos
disminuye y aumenta la resolución en pantalla (la separación entre los puntos oscila
entre 0.25mm y 0.31mm). Loa avances en los materiales y las mejoras de diseño en el
haz de electrones, producirían monitores de mayor nitidez y contraste. El fósforo
utilizado en un monitor se caracteriza por su persistencia, esto es, el periodo que
transcurre desde que es excitado (brillante) hasta que se vuelve inactivo (oscuro).
Características de monitores CRT
El refresco de pantalla
El refresco es el número de veces que se dibuja a pantalla por segundo.
Evidentemente, cuando mayor sea la cantidad de veces que se refresque, menos se
nos cansara la vista y trabajaremos mas cómodos y con menos problemas visuales.
La velocidad del refresco se mide en hertzios (Hz. 1/segundo), así que 70 Hz significa
que la pantalla se dibuja 70 veces por segundo. Para trabajar cómodamente
necesitaremos esos 70 Hz. Para trabajar con el mínimo de fatiga visual, 80Hz o mas. El
mínimo son 60 Hz; por debajo de esa cifra los ojos sufren demasiado, y unos minutos
basta para empezar a sentir escozor o incluso un pequeño dolor de cabeza.
La frecuencia máxima de refresco de un monitor se ve limitada por la resolución de la
pantalla. Esta ultima decide el numero de líneas o filas de la mascara de la pantalla y el
resultado que se obtiene del numero de las filas de un monitor y de su frecuencia de
exploración vertical (barrido o refresco) es la frecuencia de exploración horizontal;
esto es el numero de veces por segundo que el haz de electrones debe desplazarse de
izquierda a derecha de la pantalla.
Quien proporciona estos refrescos es la tarjeta grafica, pero quien debe presentarlos
es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta
podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo.
Resolución
Se denomina resolución de pantalla a la cantidad de píxeles que se pueden ubicar en
un determinado modo de pantalla. Estos píxeles están a su vez distribuidos entre el
total de horizontales y el de vértices. Todos los monitores pueden trabajar con
múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más
útiles que otros.
Un monitor cuya resolución máxima sea de 1024x768 píxeles puede representar hasta
768 líneas horizontales de 1024 píxeles cada una, probablemente además de otras
resoluciones inferiores como 640x480 u 800x600. Cuanto mayor sea la resolución de
un monitor, mejor será la calidad de la imagen de pantalla, y mayor será la calidad del
monitor. La resolución debe ser apropiada además al tamaño del monitor; hay que
decir también que aunque se disponga de un monitor que trabaje a una resolución de
1024x768 píxeles, si la tarjeta grafica instalada es VGA (640x480) la resolución de
nuestro sistema será esta última.
Tipos de monitores por resolución:
TTL: Solo se ve texto, generalmente son verdes o ámbar.
CGA: Son de 4 colores máximo o ámbar o verde, son los primeros gráficos con una
resolución de 200x400 hasta 400x600.
EGA: Monitores a colores 16 máximo o tonos de gris, con resoluciones de 400x600,
600x800.
VGA: Monitores a colores de 32 bits de color verdadero o en tono de gris, soporta
600x800, 800x1200
SVGA: Conocido como súper VGA q incrementa la resolución y la cantidad de colores
de 32 a 64 bits de color verdadero, 600x400 a 1600x1800.
UVGA: No varia mucho del súper VGA, solo incrementa la resolución a 1800x1200.
XGA: Son monitores de alta resolución, especiales para diseño, su capacidad grafica es
muy buena. Además la cantidad de colores es mayor.
 HISTORIA
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA
(Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de
IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado,
negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año
salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron
comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar
CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por
comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de
gráficos mejorados) estándar desarrollado por IBM para la visualización de gráficos,
este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el
estándar VGA (Video Graphics Array - gráficos de video arreglados) fue un estándar
muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos
problemas que surgieron, desarrollando así SVGA (Súper VGA), que también
aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas
gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI
entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho
seguían estando en la mayoría de hogares donde había un ordenador.