Download Sin modo gráfico.

Document related concepts
no text concepts found
Transcript
UNIVERSIDAD TECNICA DE MACHALA
FACULTAD DE CIENCIAS EMPRESARIALES
ESCUELA DE ECONOMIA
ALUMNA: Ariana Castro Elizalde
1. HABLAR SOBRE EL MICROPROCESADOR
El microprocesador es el cerebro del ordenador. Se encarga de realizar
todas las operaciones de cálculo y de controlar lo que pasa en el ordenador
recibiendo información y dando órdenes para que los demás elementos
trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más
trabaja.
En los equipos actuales se habla fundamentalmente de los procesadores
Pentium D o Core 2 Duo de Intel y Athlon 64 y Athlon 64 X2 de AMD.
Además, están muy extendidos procesadores no tan novedosos, como los
Pentium 4 de Intel y los chips Athlon XP de AMD.
Historia de los primeros microprocesadores
Han pasado más de 25 años desde que Intel diseñara el primer
microprocesador, siendo la compañía pionera en el campo de la fabricación
de estos productos, y que actualmente cuenta con más del 90 por ciento del
mercado. Un tiempo en el que todo ha cambiado enormemente, y en el que
desde aquel 4004 hasta el actual Pentium II hemos visto pasar varias
generaciones de máquinas que nos han entretenido y nos han ayudado en
el trabajo diario.
Dicen que es natural en el ser humano querer mirar constantemente hacia
el futuro, buscando información de hacia dónde vamos, en lugar de en
dónde hemos estado. Por ello, no podemos menos que asombrarnos de las
previsiones que los científicos barajan para dentro de unos quince años.
Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo
de los procesadores desde el año 1984, para el año 2011 utilizaremos
procesadores cuyo reloj irá a una velocidad de 10 GHz (10.000 MHz),
contendrán mil millones de transistores y será capaz de procesar cerca de
100 mil millones de instrucciones por segundo. Un futuro prometedor, que
permitirá realizar tareas nunca antes pensadas.
Los inicios
Sin embargo, para que esto llegue, la historia de los procesadores ha
pasado por diferentes situaciones, siguiendo la lógica evolución de este
mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual
Pentium II del presente año ha llovido mucho en el campo de los
procesadores. Tanto, que no estamos seguros si las cifras que se barajan en
Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004,
presentado en el mercado el día 15 de noviembre de 1971, poseía unas
DEBER DE COMPUTACIÓN - UTM
Página 1
características únicas para su tiempo. Para empezar, la velocidad de reloj
sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios),
disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640
bytes de memoria. Realmente una auténtica joya que para entonces podía
realizar gran cantidad de tareas, pero que por desgracia no tiene punto de
comparación con los actuales micros. Entre sus aplicaciones, podemos
destacar su presencia en la calculadora Busicom, así como dotar de los
primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba
una versión mejorada de su procesador. Se trataba del 8008, que contaba
como principal novedad con un bus de 8 bits, y la memoria direccionable se
ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores,
casi el doble que su predecesor, y se le puede considerar como el
antecedente del procesador que serviría de corazón al primer ordenador
personal. Justo dos años después, Intel anunciaba ese tan esperado primer
ordenador personal, de nombre Altair, cuyo nombre proviene de un destino
de la nave Enterprise en uno de los capítulos de la popular serie de
televisión Star Trek la semana en la que se creó el ordenador. Este
ordenador tenía un coste de entorno a los 400 dólares de la época, y el
procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a
sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una
memoria de 64 Kb. En unos meses, logró vender decenas de miles de
unidades, en lo que suponía la aparición del primer ordenador que la gente
podía comprar, y no ya simplemente utilizar.
La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal
hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió
en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las
que respectivamente, hacían su aparición los microprocesadores 8086 y
8088, que pasaron a formar el denominado IBM PC, que vendió millones de
unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El
éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de
los mejores negocios de los años setenta. De los dos procesadores, el más
potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de
5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta
un máximo de 1 Mega de memoria direccionable. El rendimiento se había
vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un
auténtico avance en lo que al mundo de la
informática se refiere. En cuanto al procesador
8088, era exactamente igual a éste, salvo la
diferencia de que poseía un bus de 8 bits en lugar
de uno de 16, siendo más barato y obteniendo
mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero,
Intel daba un nuevo vuelco a la industria con la
aparición de los primeros 80286. Como principal
DEBER DE COMPUTACIÓN - UTM
Página 2
novedad, cabe destacar el hecho de que por fin se podía utilizar la
denominada memoria virtual, que en el caso del 286 podía llegar hasta 1
Giga. También hay que contar con el hecho de que el tiempo pasado había
permitido a los ingenieros de Intel investigar más a fondo en este campo,
movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello
se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología
de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas
velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento,
podíamos decir que se había multiplicado entre tres y seis veces la
capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en
exclusiva, sino que otras muchas compañías, alentadas por los éxitos del
pasado, se decidieron a crear sus propias máquinas. Como dato curioso,
baste mencionar el hecho de que en torno a los seis años que se le concede
de vida útil, hay una estimación que apunta a que se colocaron en torno a
los 15 millones de ordenadores en todo el mundo.
Microsoft también juega
El año de 1985 es clave en la historia de los
procesadores. El 17 de octubre Intel anunciaba la
aparición del procesador 80386DX, el primero en
poseer una arquitectura de 32 bits, lo que suponía
una velocidad a la hora de procesar las instrucciones
realmente importante con respecto a su antecesor.
Dicho procesador contenía en su interior en torno a
los 275000 transistores, más de 100 veces los que
tenía el primer 4004 después de tan sólo 14 años. El
reloj llegaba ya hasta un máximo de 33 MHz, y era
capaz de direccionar 4 Gigas de memoria, tamaño
que todavía no se ha superado por otro procesador de Intel dedicado al
mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema
sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX,
que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor
coste. Estos procesadores irrumpieron con la explosión del entorno gráfico
Windows, desarrollado por Microsoft unos años antes, pero que no había
tenido la suficiente aceptación por parte de los usuarios. También había
habido algunos entornos que no habían funcionado mal del todo, como por
ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de
entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un
ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows
vino a ser un soplo de aire fresco para la industria, pues permitió que
personas de cualquier condición pudiera manejar un ordenador con unos
requerimientos mínimos de informática.
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el
10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología
de 32 bits y como novedades principales, la incorporación del caché de nivel
1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de
datos de este caché al procesador, así como la aparición del co-procesador
matemático, también integrado en el procesador, dejando por tanto de ser
DEBER DE COMPUTACIÓN - UTM
Página 3
una opción como lo era en los anteriores 80386. Dos cambios que unido al
hecho de que por primera vez se sobrepasaban el millón de transistores
usando la tecnología de una micra (aunque en la versión de este procesador
que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la
aparición de programas de calidad sorprendente, entre los que los juegos
ocupan un lugar destacado. Se había pasado de unos ordenadores en los
que prácticamente cualquier tarea compleja requería del intérprete de
comandos de MS-DOS para poder ser realizada, a otros en los que con
mover el cursor y pinchar en la opción deseada simplificaba en buena
medida las tareas más comunes. Por su parte, Intel volvió a realizar, por
última vez hasta el momento, una versión de este procesador dos años
después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que
no disponía del famoso co-procesador matemático incorporado, lo que
suponía una reducción del coste para aquellas personas que desearan
introducirse en el segmento sin necesidad de pagar una suma elevada.
Llega el Pentium
Sin embargo, Intel no se quedó contemplando la gran obra que había
creado, y rápidamente anunció que en breve estaría en la calle una nueva
gama de procesadores que multiplicaría de forma general por cinco los
rendimientos medios de los 80486. Se trataba de los Pentium, conocidos
por P5 en el mundillo de la informática mientras se estaban desarrollando, y
de los que la prensa de medio mundo auguraba un gran futuro, tal y como
así ha sido. Estos procesadores pasarán a la historia por ser los primeros a
los que Intel no los bautizó con un número, y sí con una palabra. Esto era
debido a que otras compañías dedicadas a la producción de procesadores
estaban utilizando los mismos nombres puesto que no se podía registrar
una cadena de ellos como marca, y por lo tanto, eran de dominio público.
De modo que a Intel no le quedó más remedio que ponerle una palabra a su
familia de procesadores, que además, con el paso del tiempo, se popularizó
en los Estados Unidos de tal forma, que era identificada con velocidad y
potencia en numerosos cómics y programas de televisión. Estos
procesadores que partían de una velocidad inicial de 60 MHz, han llegado
hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años
antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8
micras, con lo que se lograba realizar más unidades en menos espacio (ver
recuadro explicativo). Los resultados no se hicieron esperar, y las
compañías empezaron aunque de forma tímida a
lanzar programas y juegos exclusivamente para el
Pentium, hasta el punto que en este momento
quien no posea un procesador de este tipo, está
seriamente atrasado y no puede trabajar con
garantías con los programas que actualmente hay
en el mercado. Algo que ha venido a demostrar la
aparición del nuevo sistema operativo de Microsoft
Windows 95, que aunque funciona en equipos dotados de un procesador
486, lo hace sin sacar el máximo partido de sus funciones.
DEBER DE COMPUTACIÓN - UTM
Página 4
Pentium Pro y Pentium II
La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso
para los servidores de red y las estaciones de trabajo un aire nuevo, tal y
como ocurriera con el Pentium en el ámbito doméstico. La potencia de este
nuevo procesador no tenía comparación hasta entonces, gracias a la
arquitectura de 64 bits y el empleo de una tecnología revolucionaria como
es la de .32 micras, lo que permitía la inclusión de cinco millones y medio
de transistores en su interior. El procesador contaba con un segundo chip
en el mismo encapsulado, que se encargaba de mejorar la velocidad de la
memoria caché, lo que resultaba en un incremento del rendimiento
sustancioso. Las frecuencias de reloj se mantenían como límite por arriba
en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en
principio no tiene muchos visos de saltar al mercado doméstico, puesto que
los procesadores Pentium MMX parecen cubrir de momento todas las
necesidades en este campo. No podemos asegurar que en un futuro cercano
esto no acabe ocurriendo, pues en el mundo de la informática han sucedido
las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado
en constante evolución.
Una evolución que demostró Intel hace muy poco
con un nuevo procesador, denominado Pentium II,
que viene a ser simplemente un nuevo ingenio que
suma las tecnologías del Pentium Pro con el MMX.
Como resultado, el Pentium II es el procesador más
rápido de cuantos ha comercializado Intel. Por el
momento únicamente se dispone de las versiones a
233 y 266 MHz, pero después de este verano
podremos disfrutar de la versión de 300 MHz, que
supondrá un nuevo récord de velocidad de reloj. El
Pentium II, cuyas características fueron tratadas con
detalle en el artículo de portada del pasado mes de
la revista, es hoy (por poco tiempo) el extremo de la
cadena evolutiva de Intel.
El futuro de los microprocesadores
La evolución que están sufriendo los procesadores es
algo que no parece escapar a la atención de millones
de personas, cuyo trabajo depende de hasta dónde
sean capaces de llegar los ingenieros de Intel a la
hora de desarrollar nuevos chips. El último paso
conocido ha sido la implementación de la nueva
arquitectura de 0.25 micras, que viene a sustituir de
forma rotunda la empleada hasta el momento, de
0.35 micras en los últimos modelos de procesador.
Esto va a significar varias cosas en un futuro no muy
lejano. Para empezar, la velocidad se incrementará una media del 33 por
ciento con respecto a la generación de anterior. Es decir, el mismo
procesador usando esta nueva tecnología puede ir un 33 por ciento más
DEBER DE COMPUTACIÓN - UTM
Página 5
rápido que el anterior. Para que os podáis hacer una idea del tamaño de
esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más
pequeño que un pelo de cualquier persona. Y este tamaño es el que tienen
los transistores que componen el procesador. El transistor, como muchos
sabréis, permite el paso de la corriente eléctrica, de modo que en función
de en qué transistores haya corriente, el ordenador realiza las cosas (esto
es una simplificación de la realidad, pero se ajusta a ella más o menos).
Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto
menor sea esta distancia, más cantidad de veces podrá pasar pues el
tiempo de paso es menor. Aunque estamos hablando de millonésimas de
segundo, tened en cuenta que un procesador está trabajando
continuamente, de modo que ese tiempo que parece insignificante cuando
es sumado a lo largo de las miles de millones de instrucciones que realizar,
nos puede dar una cantidad de tiempo bastante importante. De modo que
la tecnología que se utilice puede dar resultados totalmente distintos incluso
utilizando el mismo procesador. Por el momento, en un futuro cercano
además de contar con la arquitectura de 0.25 micras, podremos disfrutar de
duna de 0.07 para el año 2011, lo que supondrá la introducción en el
procesador de mil millones de transistores y alcanzando una velocidad de
reloj cercana a los 10000 MHz, es decir, 10 GHz.
La tecnología MMX
Aunque no podamos considerar la tecnología MMX como un procesador en sí
mismo, sería injusto no hablar de ella en un informe como éste. Es uno de
los mayores pasos que ha dado Intel en la presente década, y según ellos
mismos, todos los procesadores que fabriquen a partir de mediados del
próximo año llevarán incorporada esta arquitectura. Para su desarrollo se
analizaron un amplio rango de programas para determinar el
funcionamiento de diferentes tareas: algoritmos de descompresión de
vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de
imágenes, etc. El análisis dio como resultado que numerosos algoritmos
usaban ciclos repetitivos que ocupaban
menos del 10% del código del programa,
pero que en la práctica suponían el 90%
del tiempo de ejecución. De modo que
nació la tecnología MMX, compuesta por
57 instrucciones y 4 tipos de datos
nuevos, que se encargan de realizar esos
trabajos cíclicos consumiendo mucho
menos tiempo de ejecución. Antes, para
manipular 8 bytes de datos gráficos
requería 8 repeticiones de la misma
instrucción;
ahora,
con
la
nueva
tecnología, se puede utilizar una única
instrucción aplicada a los 8 bytes
simultáneamente, obteniendo de este
modo un incremento del rendimiento de
8x.
DEBER DE COMPUTACIÓN - UTM
Página 6
2. DESCRIBIR LA BIOS DE UNA PC
El BIOS (sigla en inglés de basic input/output system; en español "sistema
básico de entrada y salida") es un software que localiza y reconoce todos
los dispositivos necesarios para cargar el sistema operativo en la memoria
RAM; es un software muy básico instalado en la placa base que permite que
ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el
funcionamiento y configuración del hardware del sistema que, como
mínimo, maneja el teclado y proporciona una salida básica (emitiendo
pitidos normalizados por el altavoz de la computadora si se producen fallos)
durante el arranque. El BIOS usualmente está escrito en lenguaje
ensamblador. El primer uso del término "BIOS" se dio en el sistema
operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el
arranque y que iba unida directamente al hardware (las máquinas de CP/M
usualmente tenían un simple cargador arrancable en la memoria de sólo
lectura, y nada más). La mayoría de las versiones de MS-DOS tienen un
archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al BIOS de CP/M.
El BIOS es un sistema básico de entrada/salida que normalmente pasa
inadvertido para el usuario final de computadoras. Se encarga de encontrar
el sistema operativo y cargarlo en la memoria RAM. Posee un componente
de hardware y otro de software; este último brinda una interfaz
generalmente de texto que permite configurar varias opciones del hardware
instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de
almacenamiento iniciará el sistema operativo (Microsoft Windows,
GNU/Linux, Mac OS X, etc.).
El BIOS gestiona al menos el teclado de la computadora, proporcionando
incluso una salida bastante básica en forma de sonidos por el altavoz
incorporado en la placa base cuando hay algún error, como por ejemplo un
dispositivo que falla o debería ser conectado. Estos mensajes de error son
utilizados por los técnicos para encontrar soluciones al momento de armar o
reparar un equipo.
El BIOS antiguamente residía en memorias ROM o EPROM pero desde
mediados de los 90 comenzó a utilizarse memorias flash que podían ser
actualizadas por el usuario. Es un programa tipo firmware. El BIOS es una
parte esencial del hardware que es totalmente configurable y es donde se
controlan los procesos del flujo de información en el bus del ordenador,
entre el sistema operativo y los demás periféricos. También incluye la
configuración de aspectos importantes de la máquina.
El listado de más abajo muestra toda la información almacenada en el
BIOS;





Hora y Fecha
Número de Disqueteras
Información de las unidades de disquete (tamaño, número de pistas,
sectores, cabezales, etc)
Número de discos duros
Información de los discos duros (tamaño, número de pistas, sectores,
cabezales, modo, etc.)
DEBER DE COMPUTACIÓN - UTM
Página 7





Número de lectoras de CD-ROM
Información de las lectoras de CD-ROM (modo operativo, etc.)
Secuencia de Arranque ( Habilita al usuario a decidir que disco será
chequeado primero en el arranque)
Información sobre la memoria Cache (tamaño, tipo, velocidad, etc.)
Información sobre la memoria principal (tamaño, tipo, velocidad,
etc.)
3. DESCRIBIR LAS TECNOLOGÍAS DE INFORMACIÓN Y LA
COMUNICACIÓN (TIC)
Las Tecnologías de la Información y la Comunicación, también conocidas
como TIC, son el conjunto de tecnologías desarrolladas para gestionar
información y enviarla de un lugar a otro. Abarcan un abanico de soluciones
muy amplio. Incluyen las tecnologías para almacenar información y
recuperarla después, enviar y recibir información de un sitio a otro, o
procesar información para poder calcular resultados y elaborar informes.
Si elaborásemos una lista con los usos que hacemos de las Tecnologías de
la Información y la Comunicación sería prácticamente interminable:



Internet de banda ancha
Teléfonos móviles de última generación
Televisión de alta definición
… son algunos de los avances que nos resultan más cotidianos. Pero hay
muchos más:




Códigos de barras para gestionar los productos en un supermercado
Bandas magnéticas para operar con seguridad con las tarjetas de
crédito
Cámaras digitales
Reproductores de MP3
Las Tecnologías de la Información y la Comunicación están presentes en
nuestras vidas y la han transformado.
Esta revolución ha sido propiciada por la aparición de la tecnología digital.
La tecnología digital, unida a la aparición de ordenadores cada vez más
potentes, ha permitido a la humanidad progresar muy rápidamente en la
ciencia y la técnica desplegando nuestro arma más poderosa: la información
y el conocimiento.
Hoy en día es imposible encontrar un solo instituto dedicado a investigar la
ciencia y evolucionar la técnica que no disponga de los mejores y más
sofisticados dispositivos de almacenamiento y procesado de información.
Pero no sólo eso, las Tecnologías de la Información y la Comunicación han
transformado la gestión de las empresas y nuestra manera de hacer
negocios:
DEBER DE COMPUTACIÓN - UTM
Página 8




Para
Para
Para
Para
comunicarnos con nuestro clientes
gestionar pedidos
promocionar nuestros productos
relacionarnos con la administración pública
4. DESCRIBIR GRAFICA Y TEÓRICAMENTE AL MODEM
Un Modem es un dispositivo que convierte las señales digitales producidos
por terminales y ordenadores, en señales analógicas para ser llevado por
cables telefónicos, los cuales están preparados para ello. A pesar de los
múltiples medios para transmitir datos que existen en las redes actuales, la
red telefónica tradicional sigue siendo la más utilizada cuando queremos
transmitir voz y datos desde casa.
Como se ha dicho, los terminales y ordenadores transmiten datos usando
señales digitales, y los cables telefónicos están diseñados para transmitir
señales analógicas, por lo que se necesita un elemento que sea capaz de
convertir la señal de modo a otro para poder enviar datos sobre las líneas
telefónicas. Para esto se utiliza el Modem.
El término Modem es una mezcla de las dos funciones principales de este
dispositivo, y que son modulación y demodulación. El modelo más básico de
un Modem consiste en un alimentador o transformador, un transmisor y un
receptor. El transformador provee de la energía eléctrica necesaria para
activar el equipo. El transmisor contiene un modulador, como también un
filtro y un convertidor que transforma los pulsos digitales a analógicos, y
con una señal de onda que pueda ser enviada por los circuitos telefónicos.
La parte receptora contiene un demodulador el cual es utilizado para
revertir el proceso de modulación convirtiendo las señales analógicas
recibidas, de nuevo en pulsos digitales, para que el ordenador sea capaz de
interpretar la información.
DEBER DE COMPUTACIÓN - UTM
Página 9
Funcionamiento básico de un Modem
Podemos decir que el Modem es el encargado de marcar un teléfono para
realizar una conexión con otro Modem remoto, el cual responderá a esta
llamada. A Lo largo de los años las velocidades han variado de 300 bps a 56
Kbps.
En los ordenadores actuales, ya nos podemos encontrar con un dispositivo
Modem incorporado en nuestro equipo, siendo más común encontrarlos
instalados en los ordenadores portátiles. Un Modem puede ser añadido a
nuestro sistema internamente vía una tarjeta PCI, o externamente por un
puerto serie o USB. La configuración de estos equipos es muy sencilla, y de
hecho Windows tiene un asistente para configuración de red que nos
permitirá preparar la conexión con nuestro ISP de forma rápida a través de
nuestro Modem.
Alternativas a los Modem tradicionales
La funcionalidad que nos ofrece un Modem tradicional – la habilidad de
enviar y recibir información digital – también nos la ofrecen otras
tecnologías, incluso más rápidas, también a través de las líneas telefónicas
que tenemos en casa. Algunas de estas tecnologías son ISDN, ADSL o DSL.
ISDN funciona a 128 Kbps, que es más del doble de lo que utiliza un Modem
normal, pero que se aleja bastante de la velocidad de la banda ancha. ADSL
puede entregar datos a 8 Mbps, aunque no está disponible en todos los
lugares. Normalmente, en las ciudades y zonas urbanas no tendremos
problemas para disponer de este servicio, aunque podremos encontrar
ciertas dificultades en zonas rurales. Para ello cada vez más se está
utilizando la tecnología de radio para comunicar estas áreas aisladas por
ondas.
También tenemos el cable Modem, que es el único que no utiliza las líneas
telefónicas. En vez de eso, usa la misma línea que provee a los
consumidores el servicio de televisión por cable. Este servicio suele ser
ofrecido por las compañías de televisión por cable y su velocidad es 50
veces más veloz que un Modem de marcación telefónica, aunque la
velocidad de transmisión depende del número de suscriptores usando el
servicio al mismo tiempo. Al ser una conexión compartida, la velocidad se
reduce según aumenta el número de usuarios.
Los servicios de satélite o Wireless, son más rápidos que un Modem de 56
Kbps, y pueden ser otras alternativas a los Modem tradicionales, aunque no
siempre están disponibles en el lugar donde se ubica el usuario.
DEBER DE COMPUTACIÓN - UTM
Página 10
5. HABLAR DE LAS GENERALIDADES Y/O HISTORIA DEL
TECLADO Y MONITOR.
MONITOR
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias
categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores
prestaciones, definiciones y mejorar la calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter”
surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA
conocidos popularmente por los monitores monocromáticos solo ofrecían
textos, no incorporaban modos gráficos.
DEBER DE COMPUTACIÓN - UTM
Página 11
Este tipo de monitores se caracterizaban por tener un único color
principalmente verde. El mismo creaba irritación en los ojos de sus
usuarios.
Características:
* Sin modo gráfico.
* Resolución 720_350 píxeles.
* Soporte de texto monocromático.
* No soporta gráfico ni colores.
* La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
* Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos
Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o
“Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron
comercializados a partir del año 1981, cuando se desarrollo la primera
tarjeta gráfica conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC
seguían optando por los monitores MDA, ambos fueron lanzados al mercado
en el mismo año existiendo competencia entre ellos. CGA fue el primero en
contener sistema gráfico a color.
Características:
* Resoluciones 160_200, 320×200, 640×200 píxeles.
* Soporte de gráfico a color.
* Diseñado principalmente para juegos de computadoras.
* La tarjeta gráfica contenía 16 KB de memoria de vídeo.
DEBER DE COMPUTACIÓN - UTM
Página 12
Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar
desarrollado IBM para la visualización de gráficos, creado en 1984. Este
nuevo monitor incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después
también sería sustituido por un monitor de mayores características.
Características:
* Resolución de 640_350 píxeles.
* Soporte para 16 colores.
* La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo
Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue
lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA,
los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba
modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas,
los monitores anteriores no son compatibles a los VGA, estos incorporan
señales analógicas.
Características:
* Soporte de 720×400 píxeles en modo texto.
* Soporte de 640×480 píxeles en modo gráfico con 16 colores.
* Soporte de 320×200 píxeles en modo gráfico con 256 colores.
* Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de
vídeo.
DEBER DE COMPUTACIÓN - UTM
Página 13
Monitor SVGA:
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”,
también conocidos por “Súper VGA”. Estos tipos de monitores y estándares
fueron desarrollados para eliminar incompatibilidades y crear nuevas
mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que
el VGA. Este estándar cuenta con varias versiones, los cuales soportan
diferentes resoluciones.
Características:
* Resolución de 800×600, 1024_768 píxeles y superiores.
* Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas
gráficas como: ATI, GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios
aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en
parte por el ahorro de energía, tamaño y por brindar un nuevo producto en
el mercado.
Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”.
Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para
lograr la calidad que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo
de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo
representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese
instante no tendrá representando un píxel negro. Una amplitud máxima
determina que ese punto tendrá el máximo brillo.
DEBER DE COMPUTACIÓN - UTM
Página 14
Ventajas:
* Excelente calidad de imagen (definición, contraste, luminosidad).
* Económico.
* Tecnología robusta.
* Resolución de alta calidad.
Desventajas:
* Presenta parpadeo por el refrescado de imagen.
* Consumo de energía.
* Generación de calor.
* Generación de radiaciones eléctricas y magnéticas.
* Alto peso y tamaño.
Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display
LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de
Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras
fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que
comparten las propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene
necesariamente que seguir el espacio vacío que hay entre sus moléculas
como lo haría atravesar un cristal sólido pero a cada una de estas partículas
se le puede aplicar una corriente eléctrica que cambie su polarización
dejando pasar la luz o no.
Una pantalla LCD está formada por 2 filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica deja
DEBER DE COMPUTACIÓN - UTM
Página 15
pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros
más para cada uno de los colores básicos rojo, verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar
diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue
con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
* Poco peso y tamaño.
* Buena calidad de colores.
* No contiene parpadeo.
* Poco consume de energía.
* Poca generación de calor.
* No genera radiaciones eléctricas y magnéticas.
Desventajas:
* Alto costo.
* Angulo limitado de visibilidad.
* Brillo limitado.
* Bajo tiempo de respuesta de píxeles.
* Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por
Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró
crear la pantalla de plasma de color. Este tipo de pantalla entre sus
principales ventajas se encuentran una la mayor resolución y ángulo de
visibilidad.
Funcionamiento:
DEBER DE COMPUTACIÓN - UTM
Página 16
El principio de funcionamiento de una pantalla de plasma consiste en
iluminar pequeñas luces fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como las lámparas
fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una
pequeña celda estanca que contiene un gas inerte (generalmente neón o
xenón). Al aplicar una diferencia de potencial entre los electrodos de la
celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el
material fosforescente que recubre el interior de la celda. Cuando el
material fosforescente regresa a su estado energético natural, emite luz
visible.
TECLADO
Disposición de las teclas
La disposición de las teclas se remonta a las primeras máquinas de escribir,
las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se
movía un pequeño martillo mecánico, que golpeaba el papel a través de una
cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los
martillos no tenían tiempo de volver a su posición por la frecuencia con la
que cada letra aparecía en un texto. De esta manera la pulsación era más
lenta con el fin de que los martillos se atascaran con menor frecuencia.
Sobre la distribución de los caracteres en el teclado surgieron dos variantes
principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban
en cambios en la disposición según las teclas más frecuentemente usadas
en cada idioma. A los teclados en su versión para el idioma español además
de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y
circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de
mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los
ordenadores, con sus teclados también eléctricos, se consideró seriamente
modificar la distribución de las letras en los teclados, colocando las letras
más corrientes en la zona central; es el caso del Teclado Simplificado
Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados
para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al
temor de que los usuarios tuvieran excesivas incomodidades para
habituarse al nuevo teclado, y que ello perjudicara la introducción de las
computadoras personales, que por aquel entonces se encontraban en pleno
auge.
DEBER DE COMPUTACIÓN - UTM
Página 17
Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos
Primeros teclados
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric,
los primeros teclados solían ser un terminal de computadora que se
comunicaba por puerto serial con la computadora. Además de las normas
de teletipo, se designó un estándar de comunicación serie, según el tiempo
de uso basado en el juego de caracteres ANSI, que hoy sigue presente en
las comunicaciones por módem y con impresora (las primeras
computadoras carecían de monitor, por lo que solían comunicarse, o bien
por luces en su panel de control, o bien enviando la respuesta a un
dispositivo de impresión). Se usaba para ellos las secuencias de escape, que
se generaban o bien por teclas dedicadas, o bien por combinaciones de
teclas, siendo una de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de
teclados y de tecnologías y calidades (desde los muy reputados por
duraderos del Dragon 32 a la fragilidad de las membranas de los equipos
Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el
teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General
Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos
contados los que recurren o soportan comunicación serial (curiosamente es
la tecnología utilizada en el Sinclair Spectrum 128 para el keypad
numérico). Sólo los MSX establecerán una norma sobre el teclado, y los
diferentes clones del TRS-80 seguirán el diseño del clonado.
Generación 16 bits
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo
influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido
AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el
teclado moderno con cuatro bloques diferenciados : un bloque alfanumérico
con al menos una tecla a cada lado de la barra espaciadora para acceder a
símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la
derecha un teclado numérico, y entre ambos grandes bloques, las teclas de
cursor y sobre ellas varias teclas de edición. Con algunas variantes este
será el esquema usado por los Atari ST, los Commodore Amiga (desde el
Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN
DEBER DE COMPUTACIÓN - UTM
Página 18
y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac
siguen con el esquema bloque alfanumérico + bloque numérico, pero
también producen teclados extendidos AT, sobre todo para los modelos con
emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso
la fama de "indestructibles", pues tras más de 10 años de uso continuo en
entornos como las aseguradoras o la administración pública seguían
funcionando como el primer día.
Con la aparición del conector PS/2, varios fabricantes de equipos no PC
proceden a incorporarlo en sus equipos. Microsoft, además de hacerse un
hueco en la gama de calidad alta, y de presentar avances ergonómicos
como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del
lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia
que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM
o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla
sensible al tacto o bola trazadora
Teclados con USB
Aunque los teclados USB comienzan a verse al poco de definirse el estándar
USB, es con la aparición del Apple iMac, que trae tanto teclado como mouse
USB de serie cuando se estandariza el soporte de este tipo de teclado.
Además tiene la ventaja de hacerlo independiente del hardware al que se
conecta. El estándar define scancodes de 16 bits que se transmiten por la
interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent,
ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231
se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl,
RShift, RAlt, RGUI)
Existen distintas disposiciones de teclado, para que se puedan utilizar en
diversos lenguajes. El tipo estándar de teclado inglés se conoce como
QWERTY. Denominación de los teclados de computadora y máquinas de
escribir que se utilizan habitualmente en los países occidentales, con
alfabeto latino. Las siglas corresponden a las primeras letras del teclado,
comenzando por la izquierda en la fila superior. El teclado en español o su
variante latinoamericana son teclados QWERTY que se diferencian del
inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY,
indicando ventajas tales como mayores velocidades de tecleado. La
alternativa más famosa es el Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer
ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se
encuentra en la parte superior izquierda de una tecla, se emplea la tecla
mayúscula, etiquetada como "↑". Para teclear un símbolo que se encuentra
en la parte inferior derecha de una tecla, se emplea la tecla Alt-Gr.
DEBER DE COMPUTACIÓN - UTM
Página 19
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los
caracteres acentuados. Teclear los caracteres acentuados resulta más
sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si
se presiona la tecla correspondiente al acento deseado nada ocurre en la
pantalla, por lo que, a continuación se debe presionar la tecla del carácter a
acentuar. Esta combinación de teclas requiere que se teclee una secuencia
aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´ )
seguido de la letra A , obtendrá una "a" acentuada (á). Sin embargo, si se
presiona una tecla inerte y a continuación la tecla T , no aparecerá nada en
la pantalla o aparecerán los dos caracteres por separado (´t), a menos que
la fuente particular para su idioma incluya la "t" acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la
tecla inerte del acento, seguida de la barra de espacio.
Tipos de teclado
Hubo y hay muchos teclados diferentes, dependiendo del idioma,
fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1,
unidireccionales y no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado
de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el
anterior cuenta con un conector DIN de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a
partir del AT. Sus características son que usa la misma interfaz que el AT,
añade muchas teclas más, se ponen leds y soporta el Scan Code set 3,
aunque usa por defecto el 2. De este tipo hay dos versiones, la americana
con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas
diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y
más comandos, pero la comunicación es la misma, usan el protocolo AT.
Incluso los ratones PS/2 usan el mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados
teclados virtuales, que son (como su mismo nombre indica) teclados
representados en la pantalla, que se utilizan con el ratón o con un
dispositivo especial (podría ser un joystick). Estos teclados lo utilizan
personas con discapacidades que les impiden utilizar adecuadamente un
teclado físico.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque
hay una gran diversidad de ellos.
DEBER DE COMPUTACIÓN - UTM
Página 20
Estructura
Un teclado realiza sus funciones mediante un micro controlador. Estos micro
controladores tienen un programa instalado para su funcionamiento, estos
mismos programas son ejecutados y realizan la exploración matricial de las
teclas cuando se presiona alguna, y así determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada
tecla con su carácter serigrafiado en la misma sino que se adjudica un valor
numérico a cada una de ellas que sólo tiene que ver con su posición física.
El teclado latinoamericano sólo da soporte con teclas directas a los
caracteres específicos del castellano, que incluyen dos tipos de acento, la
letra eñe y los signos de exclamación e interrogación. El resto de
combinaciones de acentos se obtienen usando una tecla de extensión de
grafismos. Por lo demás el teclado latinoamericano está orientado hacia la
programación, con fácil acceso al juego de símbolos de la norma ASCII.
Por cada pulsación o liberación de una tecla el micro controlador envía un
código identificativo que se llama Scan Code. Para permitir que varias
teclas sean pulsadas simultáneamente, el teclado genera un código
diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el
micro controlador nota que ha cesado la pulsación de la tecla, el nuevo
código generado (Break Code) tendrá un valor de pulsación incrementado
en 128. Estos códigos son enviados al circuito micro controlador donde
serán tratados gracias al administrador de teclado, que no es más que un
programa de la BIOS y que determina qué carácter le corresponde a la tecla
pulsada comparándolo con una tabla de caracteres que hay en el kernel,
generando una interrupción por hardware y enviando los datos al
procesador. El micro controlador también posee cierto espacio de memoria
RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso
de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay
que tener en cuenta, que cuando realizamos una pulsación se pueden
producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado
también dispone de un circuito que limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por
razones de compatibilidad es necesario traducirlos. De esta función se
encarga el controlador de teclado que es otro microcontrolador
(normalmente el 8042), éste ya situado en el PC. Este controlador recibe el
Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente
dicho Código de Búsqueda. La comunicación del teclado es vía serie. El
protocolo de comunicación es bidireccional, por lo que el servidor puede
enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos,
etc.
Disposición del teclado
La disposición del teclado es la distribución de las teclas del teclado de
una computadora, una máquina de escribir u otro dispositivo similar.
Existen distintas distribuciones de teclado, creadas para usuarios de idiomas
diferentes. El teclado estándar en español corresponde al diseño llamado
DEBER DE COMPUTACIÓN - UTM
Página 21
QWERTY. Una variación de este mismo es utilizado por los usuarios de
lengua inglesa. Para algunos idiomas se han desarrollado teclados que
pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado
Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado
de varios idiomas distintos en un teclado que físicamente corresponde a un
solo idioma. En el sistema operativo Windows, por ejemplo, pueden
instalarse distribuciones adicionales desde el Panel de Control.
Existen programas como Microsoft Keyboard Layout Creator y KbdEdit, que
hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer
las necesidades particulares de un usuario, ya para resolver problemas que
afectan a todo un grupo lingüístico. Estas distribuciones pueden ser
modificaciones a otras previamente existentes (como el teclado
latinoamericano extendido o el gaélico), o pueden ser enteramente nuevas
(como la distribución para el Alfabeto Fonético Internacional, o el
panibérico).
A primera vista en un teclado podemos notar una división de teclas, tanto
por la diferenciación de sus colores, como por su distribución. Las teclas
grisáceas sirven para distinguirse de las demás por ser teclas especiales
(borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos
en su distribución vemos que están agrupadas en cuatro grupos:




Teclas de función: situadas en la primera fila de los teclados.
Combinadas con otras teclas, nos proporcionan acceso directo a
algunas funciones del programa en ejecución.
Teclas de edición: sirven para mover el cursor por la pantalla.
Teclas alfanuméricas: son las más usadas. Su distribución suele ser la
de los teclados QWERTY, por herencia de la distribución de las
máquinas de escribir. Reciben este nombre por ser la primera fila de
teclas, y su orden es debido a que cuando estaban organizadas
alfabéticamente la máquina tendía a engancharse, y a base de probar
combinaciones llegaron a la conclusión de que así es como menos
problemas daban. A pesar de todo esto, se ha comprobado que hay
una distribución mucho más cómoda y sencilla, llamada Dvorak, pero
en desuso debido sobre todo a la incompatibilidad con la mayoría de
los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los
dígitos del sistema decimal y los símbolos de algunas operaciones
aritméticas. Añade también la tecla especial Bloq Num, que sirve para
cambiar el valor de algunas teclas para pasar de valor numérico a
desplazamiento de cursor en la pantalla. el teclado numérico también
es similar al de un calculadora cuenta con las 4 operaciones básicas
que son + (suma), - (resta), * (multiplicación) y / (división).
DEBER DE COMPUTACIÓN - UTM
Página 22
Clasificación de teclados de computadoras
En el mercado hay una gran variedad de teclados. Según su forma física:








Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
Teclado AT de 83 teclas: usado con los PC AT (286/386).
Teclado expandido de 101/102 teclas: es el teclado actual, con un
mayor número de teclas.
Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas
adicionales para uso en Windows.
Teclado ergonómico: diseñados para dar una mayor comodidad para
el usuario, ayudándole a tener una posición más relajada de los
brazos.
Teclado multimedia: añade teclas especiales que llaman a algunos
programas en el computador, a modo de acceso directo, como
pueden ser el programa de correo electrónico, la calculadora, el
reproductor multimedia, etc.
Teclado inalámbrico: suelen ser teclados comunes donde la
comunicación entre el computador y el periférico se realiza a través
de rayos infrarrojos, ondas de radio o mediante bluetooth.
Teclado flexible: Estos teclados son de plástico suave o silicona que
se puede doblar sobre sí mismo. Durante su uso, estos teclados
pueden adaptarse a superficies irregulares, y son más resistentes a
los líquidos que los teclados estándar. Estos también pueden ser
conectados a dispositivos portátiles y teléfonos inteligentes. Algunos
modelos pueden ser completamente sumergidos en agua, por lo que
hospitales y laboratorios los usan, ya que pueden ser desinfectados.7
Según la tecnología de sus teclas se pueden clasificar como teclados de
cúpula de goma, teclados de membrana: teclados capacitativos y teclados
de contacto metálico.
DEBER DE COMPUTACIÓN - UTM
Página 23