Download Procesadores de silicio

Document related concepts
no text concepts found
Transcript
Que es un microprocesador
El microprocesador, o simplemente procesador, es el circuito integrado central y más
complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar
por analogía como el "cerebro" de una computadora.
El procesador es un circuito integrado constituido por millones de componentes
electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC
catalogado como microcomputador.
Desde el punto de vista funcional es, básicamente, el encargado de realizar toda
operación aritmético-lógica, de control y de comunicación con el resto de los
componentes integrados que conforman un PC, siguiendo el modelo base de Von
Neumann. También es el principal encargado de ejecutar los programas, sean de usuario
o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando
operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar,
restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una
unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo
microprocesador también incluye una unidad de cálculo en coma flotante, (también
conocida como "co-procesador matemático"), que permite operaciones por hardware
con números decimales, elevando por ende notablemente la eficiencia que proporciona
sólo la ALU con el cálculo indirecto a través de los clásicos números enteros. Aparece
en computadoras de cuarta generación.
El microprocesador está conectado, generalmente, mediante un zócalo específico a la
placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un
sistema de refrigeración, que consta de un disipador de calor fabricado en algún material
de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que
fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula
del microprocesador suele colocarse pasta térmica para mejorar la conductividad
térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de
células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi
exclusivamente para aplicaciones especiales, tales como en las prácticas de
overclocking.
La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por
ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla,
o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La
frecuencia de reloj se mide hercios, pero dada su elevada cifra se utilizan múltiplos,
como el megahercio o el gigahercio.
Cabe destacar que la frecuencia de reloj no es el único factor determinante en el
rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de una
misma micro arquitectura.
Es importante notar que la frecuencia de reloj efectiva no es el producto de la frecuencia
de cada núcleo físico del procesador por su número de núcleos, es decir, uno de 3 GHz
con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz, independientemente de su
número de núcleos.
Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria
caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que
soporta, su arquitectura, etc.; por lo que sería difícilmente comparable el rendimiento de
dos procesadores distintos basándose sólo en su frecuencia de reloj.
Un computador de alto rendimiento puede estar equipado con varios microprocesadores
trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por
varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del
microprocesador cuasi-independiente que realiza todas las actividades de una CPU
solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de
manera más eficiente el procesamiento.
Estos últimos años ha existido una tendencia de integrar el mayor número de elementos
de la PC dentro del propio procesador, aumentando así su eficiencia energética y su
rendimiento. Una de las primeras integraciones, fue introducir la unidad de coma
flotante dentro del encapsulado, que anteriormente era un componente aparte y opcional
situado también en la placa base, luego se introdujo también el controlador de memoria,
y más tarde un procesador gráfico dentro de la misma cámara, aunque no dentro del
mismo encapsulado. Posteriormente se llegaron a integrar completamente en el mismo
encapsulado (die).
Respecto a esto último, compañías tales como Intel ya planean integrar el puente sur
dentro del microprocesador, eliminando completamente ambos circuitos auxiliares de la
placa.
También la tendencia general, más allá del mercado del PC, es integrar varios
componentes en un mismo chip para dispositivos tales como Tablet PC, teléfonos
móviles, videoconsolas portátiles, etc. A estos circuitos integrados "todo en uno" se los
conoce como system on a chip; por ejemplo Vidia Tegra o Samsung Hummingbird,
ambos integran microprocesador, unidad de procesamiento gráfico y controlador de
memoria dentro de un mismo circuito integrado.
La evolución del microprocesador
El microprocesador es producto de la evolución de distintas tecnologías predecesoras,
surgido de la computación y la tecnología semiconductora; en los inicios no existían los
procesadores tal como los conocemos hoy. El inicio de su desarrollo data de mitad de la
década de 1950; estas tecnologías se fusionaron a principios de los años 70,
produciendo el primer microprocesador.
Tales tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este
tiempo los científicos desarrollaron computadoras específicas para aplicaciones
militares. En la posguerra, a mediados de la década de 1940, la computación digital
emprendió un fuerte desarrollo también para propósitos científicos y civiles.
La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes
progresos en el diseño de componentes de estado sólido. En 1948 en los laboratorios
Bell crearon el transistor.
En los años 1950, aparecieron las primeras computadoras digitales de propósito general.
Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos
activos. Tarjetas o módulos de tubos al vacío componían circuitos lógicos básicos, tales
como compuertas y flip-flops. Ensamblando compuertas y flip-flops en módulos se
construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.).
Los tubos de vacío también formaron parte de la construcción de máquinas para la
comunicación con las computadoras.
Para la construcción de un circuito sumador simple se requiere de algunas compuertas
lógicas. La construcción de una computadora digital precisa numerosos circuitos o
dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue
hacer que el dato fuera almacenado en memoria, como una forma de palabra digital. La
idea de almacenar programas en memoria para luego ejecutarlo fue de fundamental
importancia (Arquitectura de von Neumann).
La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El
empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron del
transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto
el diseño de la computadora digital tuvo un gran avance el reemplazo del tubo al vacío
por el transistor, a finales de la década de 1950.
A principios de la década de 1960, el estado de arte en la construcción de computadoras
de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos
digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL
(Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).
A mediados de los años 1960 se producen las familias de circuitos de lógica digital,
dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de
integración de componentes. A finales de los años 1960 y principios de los 70 surgieron
los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible
incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos
circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.
Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados.
Después se dio un paso importante en la reducción de la arquitectura de la computadora
a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión
de las palabras "Micro" del griego μικρο-, "pequeño", y procesador. Sin embargo, es
totalmente válido usar el término genérico procesador, dado que con el paso de los años,
la escala de integración se ha visto reducida de micrométrica a nanométrica; y además,
es, sin duda, un procesador.

El primer microprocesador fue el Intel 4004,[1] producido en 1971. Se desarrolló
originalmente para una calculadora, y resultó revolucionario para su época.
Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que
podía realizar hasta 60.000 operaciones por segundo, trabajando a una
frecuencia de reloj de alrededor de 700KHz.







El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados
de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300
transistores y podía procesar a frecuencias máximas de 800Khz.
El primer microprocesador realmente diseñado para uso general, desarrollado en
1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar
200.000 instrucciones por segundo trabajando a alrededor de 2MHz.
Los primeros microprocesadores de 16 bits fueron el 8086 y el 8088, ambos de
Intel. Fueron el inicio y los primeros miembros de la popular arquitectura x86,
actualmente usada en la mayoría de los computadores. El chip 8086 fue
introducido al mercado en el verano de 1978, en tanto que el 8088 fue lanzado
en 1979. Llegaron a operar a frecuencias mayores de 4Mhz.
El microprocesador elegido para equipar al IBM Personal Computer/AT, que
causó que fuera el más empleado en los PC-AT compatibles entre mediados y
finales de los años 80 fue el Intel 80286 (también conocido simplemente como
286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al
mercado en 1982. Contaba con 134.000 transistores. Las versiones finales
alcanzaron velocidades de hasta 25 MHz.
Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de
Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes
versiones llegó a trabajar a frecuencias del orden de los 40Mhz.
El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200
MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con
una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y
arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del
mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001.
Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el
Alpha aun encabezaba la lista de los computadores más rápidos de Estados
Unidos.[2]
Los microprocesadores modernos tienen una capacidad y velocidad mucho
mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de
transistores, como es en el caso de las serie Core i7, y pueden operar a
frecuencias normales algo superiores a los 3GHz (3000MHz).
Breve historia
El pionero de los actuales microprocesadores: el 4004 de Intel.
Motorola 6800.
Zilog Z80 A.
Intel 80286, más conocido como 286.
Intel 80486, conocido también como 486SX de 33Mhz.
IBM PowerPC 601.
Parte posterior de un Pentium Pro. Este chip en particular es de 200 MHz, con 256 KiB
de cache L2.
AMD K6 original.
Intel Pentium II; se puede observar su estilo de zócalo diferente.
Intel Celeron "Coppermine 128" de 600 MHz.
Intel Pentium III.
Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores
más populares que fueron surgiendo.

1971: El Intel 4004
El 4004 fue el primer microprocesador del mundo, creado en un simple chip, y
desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible
comercialmente. Este desarrollo impulsó la calculadora de Busicom[1] y dio camino a
la manera para dotar de "inteligencia" a objetos inanimados, así como la computadora
personal.

1972: El Intel 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal
Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que
Intel terminó el proyecto tarde y a que no cumplía con las expectativas de Computer
Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente
Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a
otros clientes.

1974: El SC/MP
El SC/MP desarrollado por National Semiconductor, fue uno de los primeros
microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP
(popularmente conocido como "Scamp") es el acrónimo de Simple Cost-effective Micro
Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16
bits y un bus de datos de 8 bits. Una característica avanzada para su tiempo, es la
capacidad de liberar los buses, a fin de que puedan ser compartidos por varios
procesadores. Este procesador fue muy utilizado, por su bajo costo, y provisto en kits,
para los propósitos educativos, de investigación y para el desarrollo de controladores
industriales de diversos propósitos.

1974: El Intel 8080
EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de
MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship"
del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base
para las máquinas que ejecutaban el sistema operativo [[CP/M]|CP/M-80]. Los fanáticos
de las computadoras podían comprar un equipo Altair por un precio (en aquel momento)
de u$s395. En un periodo de pocos meses, se vendieron decenas de miles de estas PC.

1975: Motorola 6800
Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como 6800. Fue
lanzado al mercado poco después del Intel 8080. Su nombre proviene de qué contenía
aproximadamente 6800 transistores. Varios de los primeras microcomputadoras de los
años 1970 usaron el 6800 como procesador. Entre ellas se encuentran la SWTPC 6800,
que fue la primera en usarlo, y la muy conocida Altair 680. Este microprocesador se
utilizó profusamente como parte de un kit para el desarrollo de sistemas controladores
en la industria. Partiendo del 6800 se crearon varios procesadores derivados, siendo uno
de los más potentes el Motorola 6809

1976: El Z80
La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido
en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de
éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el
primer computador que hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80
a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del
cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma
extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue
fundada 1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel
4004 y posteriormente del Intel 8080.

1978: Los Intel 8086 y 8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM,
hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el
8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500
mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa
como uno de Los triunfos comerciales de los sesenta.

1982: El Intel 80286
El 80286, popularmente conocido como 286, fue el primer procesador de Intel que
podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del
software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de 6
años de su introducción, había un estimado de 15 millones de PC basadas en el 286,
instaladas alrededor del mundo.

1985: El Intel 80386
Este procesador Intel, popularmente llamado 386, se integró con 275000 transistores,
más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32
bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo
mucho más sencillo implementar sistemas operativos que usaran memoria virtual.

1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333), es de único ship y
de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC);
instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma
flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar
el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador
contenía 125000 transistores, fue fabricado en tecnologóa ZMOS de DEC. Los sistemas
VAX y los basados en este procesador fueron los preferidos por la comunidad científica
y de ingeniería durante la década del 1980.

1989: El Intel 80486
La generación 486 realmente significó contar con una computadora personal de
prestaciones avanzadas, entre ellas, un conjunto de instrucciones optimizado, una
unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria
caché unificada, todo ello integrado en el propio chip del microprocesador. Estas
mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando
a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un
coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las
operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más
complejas son realizadas por el coprocesador de manera prácticamente independiente a
la función del procesador principal.

1991: El AMD AMx86
Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese
momento, llamados "clones" de Intel, llegaron incluso a superar la frecuencia de reloj
de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen
las series Am286, Am386, Am486 y Am586.

1993: PowerPC 601
Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño
utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con
Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza
AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e
Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o
MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC,
que fue desarrollada por la alianza AIM. Los procesadores de esta familia son utilizados
principalmente en computadores Macintosh de Apple Computer y su alto rendimiento
se debe fuertemente a su arquitectura tipo RISC.

1993: El Intel Pentium
El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos
operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno
equivalente al 486DX (u) y el otro equivalente a 486SX (u). Además, estaba dotado de
un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el
procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas,
y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX
no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, como
por ejemplo, la lectura de películas en DVD, sino que también se ofrecían en
velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y la más básica
trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se
mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió
una palabra muy popular poco después de su introducción.

1994: EL PowerPC 620
En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de
64 bit[2], la implementación más avanzada de la arquitectura PowerPC, que estuvo
disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y
especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho
procesadores en servidores de aplicaciones de base de datos y vídeo. Este procesador
incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido como un puente
de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin
tener que renunciar a ejecutar aplicaciones de 32 bits.

1995: EL Intel Pentium Pro
Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro (profesional) se
diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y
aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su
integración en las computadoras. El rendimiento del código de 32 bits era excelente,
pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o
sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por
alrededor de 5,5 millones de transistores.

1996: El AMD K5
Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel.
AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La
arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium
Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad
x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en
comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría
de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo
AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes
hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de
su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la
competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.

1996: Los AMD K6 y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium
MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido
dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por
un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo
del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una
gama que va desde los 166 hasta los más de 500 Mhz y con el juego de instrucciones
MMX, que ya se han convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir
compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante,
pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD
denominado 3DNow!

1997: El Intel Pentium II
Un procesador de 7,5 millones de transistores, se busca entre los cambios
fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de
código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria
caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito
impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC
pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía
Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar
vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo
cotidiano.

1998: El Intel Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de
desempeño en computadoras de medio-rango, servidores más potentes y estaciones de
trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de
procesadores con el objetivo de llenar segmentos de los mercados específicos, el
procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones
de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios
de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden
configurarse sistemas basados en este procesador para integrar de cuatro o ocho
procesadores trabajando en paralelo, también más allá de esa cantidad.

1999: El Intel Celeron
Continuando la estrategia, Intel, en el desarrollo de procesadores para los segmentos del
mercado específicos, el procesador Celeron es el nombre que lleva la línea de de bajo
costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los
mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el
añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una
gran actuación a un bajo coste, y entregó un desempeño destacado para usos como
juegos y el software educativo.

1999: El AMD Athlon K7 (Classic y Thunderbird)
Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un
rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante
(ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le
incrementó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64
KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El
resultado fue el procesador x86 más potente del momento.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon
Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus
EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180
nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor
compañía de fabricación de microprocesadores, ya que gracias a su excelente
rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la
misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los
entendidos como en los iniciados en la informática.

1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las
extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes
avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en
aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del
desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a
través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos
video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se
introdujo usando en él tecnología 250 nanómetros.

1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones
de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación
mejorada en las aplicaciones del comercio electrónico e informática comercial
avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento
multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III
Xeon acelera la transmisión de información a través del bus del sistema al procesador,
mejorando el desempeño significativamente. Se diseña pensando principalmente en los
sistemas con configuraciones de multiprocesador.

2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en la arquitectura x86 y
fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium
Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto
a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio
mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2001: El AMD Athlon XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon
Thunderbird no estaba a su nivel. Además no era práctico para el overclocking,
entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores
x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este
compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al
Thunderbird se puede mencionar la pre recuperación de datos por hardware, conocida
en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4
denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación
de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos
poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los
Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading
mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por
AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de
temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el
conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron.
El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del
microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que
los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso
ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de
reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está
ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del
mismo y su tensión se reduce.

2006: EL Intel Core Duo
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo
Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la
nueva arquitectura Core de Intel. La micro arquitectura Core regresó a velocidades de
CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía
comparados con anteriores NetBurst de los CPU Pentium 4/D2. La micro arquitectura
Core provee etapas de decodificación, unidades de ejecución, caché y buses más
eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la
capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en
consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de
semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de
procesadores fueron fabricados de 65 a 45 nanómetros.

2007: El AMD Phenom
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera
generación de procesadores de tres y cuatro núcleos basados en la microarquitectura
K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros
lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante,
Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de
45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso
inteligente de energía y recursos del sistema, listos para la virtualización, generando un
óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como
controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de
coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos
de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan
un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de
16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología
HyperTransport, de manera que las escalas de rendimiento mejoren con el número de
núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no
depende tanto del tiempo de latencia de la RAM), además de compatibilidad de
infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de
actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la
serie Core 2 Duo.

2008: El Intel Core Nehalem
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel
x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura
Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la
interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo
1156) por el DMI eliminado el northBrige e implementando puertos PCI Express
directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede
soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7
tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben
ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando
nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones
de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a
contrapartida los consumos se dispararon.

2008: Los AMD Phenom II y Athlon II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs
multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y
dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que
permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera
generosa, pasando de los 2 MiB del Phenom original a 6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador
binúcleo del mercado. También se lanzan tres Athlon II con sólo Cache L2, pero con
buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd
Athlon II X4 635 continúa la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble
núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre
a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro
del encapsulado

2011: El Intel Core Sandy Bridge
Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7
serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge.
Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura
respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los
modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones
de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se
relacione con operación en multimedia. Llegaron la primera semana de Enero del 2011.
Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de
hasta 12 unidades de ejecución
Ivy Bridge es la mejora de Sandy bridge a 22 nm. Se estima su llegada para 2012 y
promete una mejora de la GPU, así como procesadores de sexdécuple núcleo en gamas
más altas y cuádruple núcleo en las más bajas, abandonándose los procesadores de
núcleo doble.

2011: El AMD Fusión
AMD Fusión es el nombre clave para un diseño futuro de microprocesadores Turion,
producto de la fusión entre AMD y ATI, combinando con la ejecución general del
procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU
(procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida
progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros
modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de
2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos
y Bulldozer para mediados o finales del 2011)
Funcionamiento
Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto
básicamente por: varios registros, una unidad de control, una unidad aritmético-lógica, y
dependiendo del procesador, puede contener una unidad en coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios
organizados secuencialmente en la memoria principal. La ejecución de las instrucciones
se puede realizar en varias fases:






PreFetch, pre lectura de la instrucción desde la memoria principal.
Fetch, envío de la instrucción al decodificador
Decodificación de la instrucción, es decir, determinar qué instrucción es y por
tanto qué se debe hacer.
Lectura de operandos (si los hay).
Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el
procesamiento.
Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la
estructura del procesador, y concretamente de su grado de segmentación. La duración de
estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al
tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor
coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado
en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que
genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles
de MHz. Un microprocesador es un sistema abierto con el que puede construirse un
computador con las características que se desee acoplándole los módulos necesarios.
Rendimiento
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos
años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido
como "mito de los megahertzios" se ha visto desvirtuado por el hecho de que los
procesadores no han requerido frecuencias más altas para aumentar su potencia de
cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4
GHz, dando como resultado procesadores con capacidades de proceso mayores
comparados con los primeros que alcanzaron esos valores. Además la tendencia es a
incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento
por medio de una computación paralela, de manera que la velocidad de reloj es un
indicador menos fiable aún.
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con
arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el
mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una
familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias
de reloj, debido a que no todos los chips de silicio tienen los mismos límites de
funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de
inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.
Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes
estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de
diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de
las bajas que simplemente de su memoria caché. Después de obtener los lotes según su
gama, se someten a procesos en un banco de pruebas, y según su soporte a las
temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una
frecuencia, con la que vendrá programada de serie, pero con prácticas de overclock se le
puede incrementar
La capacidad de un procesador depende fuertemente de los componentes restantes del
sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas
características puede tenerse una medida aproximada del rendimiento de un procesador
por medio de indicadores como la cantidad de operaciones de coma flotante por unidad
de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una
medida exacta del rendimiento de un procesador o de un sistema, es muy complicada
debido a los múltiples factores involucrados en la computación de un problema, por lo
general las pruebas no son concluyentes entre sistemas de la misma generación.
Arquitectura
El microprocesador tiene una arquitectura parecida a la computadora digital. En otras
palabras, el microprocesador es como la computadora digital porque ambos realizan
cálculos bajo un programa de control. Consiguientemente, la historia de la computadora
digital ayuda a entender el microprocesador. El hizo posible la fabricación de potentes
calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de
lógica que es usado en la unidad procesadora central (CPU) de una computadora digital.
El microprocesador es algunas veces llamado unidad microprocesador (MPU). En otras
palabras, el microprocesador es una unidad procesadora de datos. En un
microprocesador se puede diferenciar diversas partes:






Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia,
impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace
con los conectores externos que lo acoplaran a su zócalo a su placa base.
Memoria cache: es una memoria ultrarrápida que emplea el micro para tener a
alcance directo ciertos datos que "predeciblemente" serán utilizados en las
siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así
el tiempo de espera para adquisición de datos. Todos los micros compatibles con
PC poseen la llamada cache interna de primer nivel o L1; es decir, la que está
dentro del micro, encapsulada junto a él. Los micros más modernos (Pentium III
Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro
nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo
nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3.
Coprocesador matemático: unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el
exterior del procesador en otro chip. Esta parte está considerada como una parte
"lógica" junto con los registros, la unidad de control, memoria y bus de datos.
Registros: son básicamente un tipo de memoria pequeña con fines especiales que
el micro tiene disponible para algunos usos particulares. Hay varios grupos de
registros en cada procesador. Un grupo de registros está diseñado para control
del programador y hay otros que no son diseñados para ser controlados por el
procesador pero que la CPU los utiliza en algunas operaciones, en total son
treinta y dos registros.
Memoria: es el lugar donde el procesador encuentra las instrucciones de los
programas y sus datos. Tanto los datos como las instrucciones están
almacenados en memoria, y el procesador las accede desde allí. La memoria es
una parte interna de la computadora y su función esencial es proporcionar un
espacio de almacenamiento para el trabajo en curso.
Puertos: es la manera en que el procesador se comunica con el mundo externo.
Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de
la computadora con la cual el procesador necesita comunicarse, tiene asignado
un "número de puerto" que el procesador utiliza como si fuera un número de
teléfono para llamar circuitos o a partes especiales.
Fabricación
Procesadores de silicio
El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con
un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un
monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a
alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se va formando el
cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie
exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas
de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando
una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se
fabricarán varios cientos de microprocesadores.
Silicio.
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un
proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo
para remover cualquier defecto o impureza que pueda haber llegado a esta instancia.
Después de una supervisión mediante láseres capaz de detectar imperfecciones menores
a una milésima de micra, se recubren con una capa aislante formada por óxido de silicio
transferido mediante deposición de vapor.
De aquí en adelante, comienza el proceso del "dibujado" de los transistores que
conformarán a cada microprocesador. A pesar de ser muy complejo y preciso,
básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea,
sucediéndose la deposición y eliminación de capas finísimas de materiales conductores,
aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos
encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se
trata de un proceso comparable al visto para la fabricación de circuitos impresos.
Después de cientos de pasos, entre los que se hallan la creación de sustrato, la
oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se
llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del
microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a
unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al
momento de aplicar cada una de las máscaras utilizadas durante la fabricación.
Una oblea de silicio grabada.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de
polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación
de microprocesadores se denominan salas limpias, porque el aire de las mismas se
somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias
más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo
de partículas mayores de 0,12 micras que puede haber en un pie cúbico (0,028 m3) de
aire. Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de
estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se
desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su
superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de
cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea
que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador
defectuoso.
La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips
capaces de funcionar a velocidades menores que los del centro de la oblea o
simplemente con características desactivadas, tales como núcleos. Luego la oblea es
cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es
una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.
Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos
casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le
permitirán interactuar con el mundo exterior. Estas conexiones se realizan utilizando
delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es provista de
un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de
calor desde el interior del chip hacia el disipador principal. El resultado final es un
microprocesador como los que equipan a los computadores.
También se están desarrollando alternativas al silicio puro, tales como el carburo de
silicio que mejora la conductividad del material, permitiendo mayores frecuencias de
reloj; aunque aún se encuentra en investigación.
Otros materiales
Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no
se puede omitir la utilización de otros materiales tales como el germanio; tampoco las
investigaciones actuales para conseguir hacer operativo un procesador desarrollado con
materiales de características especiales como el grafeno o la molibdenita[3] .
Empaquetado
Empaquetado de un procesador Intel 80486 en un empaque de cerámica.
Los microprocesadores son circuitos integrados y como tal están formados por un chip
de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el
empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP
entre otros. El chip se pegaba con un material térmicamente conductor a una base y se
conectaba por medio de pequeños alambres a unas pistas terminadas en pines.
Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material
de la base de manera que los alambres y el silicio quedaran encapsulados.
Empaquetado de un procesador PowerPC con Flip-Chip, se ve el chip de silicio.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores
gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es
soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la
ayuda de unas micro esferas que se depositan sobre las obleas de semiconductor en las
etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso
que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión
entre el chip semiconductor y un zócalo de CPU o una placa base. <4>
Antiguamente la conexión del chip con los pines se realizaba por medio de micro
alambres de manera que quedaba boca arriba, con el método Flip Chip queda boca
abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad
del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo
presenta el sustrato base de silicio de manera que puede ser enfriado directamente por
medio de elementos conductores de calor. Esta superficie se aprovecha también para
etiquetar el integrado. En los procesadores para computadores de escritorio, dada la
vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por
ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores
de Intel también se incluye desde el Pentium III de más de 1 Ghz.
Disipación de calor
Artículo principal: Disipador
Con el aumento la cantidad de transistores integrados en un procesador, el consumo de
energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no
es suficiente para mantener temperaturas aceptables y que no se dañe el material
semiconductor, de manera que se hizo necesario el uso de mecanismos de enfriamiento
forzado, esto es, la utilización de disipadores de calor.
Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que
aumentan el área de radiación, permitiendo que la energía salga rápidamente del
sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.
En los procesadores más modernos se aplica en la parte superior del procesador, una
lámina metálica denominada IHS que va a ser la superficie de contacto del disipador
para mejorar la refrigeración uniforme del die y proteger las resistencias internas de
posible toma de contacto al aplicar pasta térmica. Varios modelos de procesadores, en
especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de
la pasta térmica.
Para las prácticas de overclock extremo, se llegan a utilizar elementos químicos tales
como hielo seco, y en casos más extremos, nitrógeno líquido, capaces de rondar
temperaturas por debajo de los -190 grados Celsius y el helio líquido capaz de rondar
temperaturas muy próximas al cero absoluto. De esta manera se puede prácticamente
hasta triplicar la frecuencia de reloj de referencia de un procesador de silicio. El límite
físico del silicio es de 10 GHz, mientras que el de otros materiales como el grafeno
puede llegar a 1 THz[4]
Conexión con el exterior
Artículo principal: Zócalo de CPU
Superficies de contacto en un procesador Intel para zócalo LGA 775.
El microprocesador posee un arreglo de elementos metálicos que permiten la conexión
eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de
la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede
tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El
montaje del procesador se realiza con la ayuda de un zócalo de CPU soldado sobre la
placa base. Generalmente distinguimos tres tipos de conexión:



PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres
metálicos repartidos a lo largo de la base del procesador introduciéndose en la
placa base mediante unos pequeños agujeros, al introducir el procesador, una
palanca anclará los pines para que haga buen contacto y no se suelten.
BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al
procesador que hacen contacto con el zócalo
LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto
lisas con pequeños pines que incluye la placa base.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro
del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control;
estas funciones están distribuidas en un esquema asociado al zócalo, de manera que
varias referencias de procesador y placas base son compatibles entre ellos, permitiendo
distintas configuraciones.
Buses del procesador
Todos los procesadores poseen un bus principal o de sistema por el cual se envían y
reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o
desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto
del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por
segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o
paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus
paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama
front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de
múltiples líneas de control que permiten la transmisión de datos entre el procesador y el
resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia,
con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz
haciendo 4 transferencias por ciclo.[5]
En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el
bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD,
que maneja los datos en forma de paquetes usando una cantidad menor de líneas de
comunicación, permitiendo frecuencias de funcionamiento más altas y en el caso de
Intel, Quickpath
Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador
de memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la
implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de
acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para
datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1
a 4 buses de memoria.
¿Qué es la BIOS?
La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una
memoria ROM, EPROM o FLASH-Ram la cual contiene las rutinas de más bajo
nivel que hace posible que el ordenador pueda arrancar, controlando el teclado,
el disco y la disquetera permite pasar el control al sistema operativo.
Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque
suele estar hecha con esta tecnología), que almacena todos los datos propios
de la configuración del ordenador, como pueden ser los discos duros que
tenemos instalados, número de cabezas, cilindros, número y tipo de
disqueteras, la fecha, hora, etc., así como otros parámetros necesarios para el
correcto funcionamiento del ordenador.
Esta memoria está alimentada constantemente por una batería, de modo que,
una vez apaguemos el ordenador no se pierdan todos esos datos que nuestro
ordenador necesita para funcionar.
Ahora todas las placas suelen venir con una pila tipo botón, la cual tiene una
duración de unos 4 ó 5 años (aunque esto puede ser muy variable), y es muy
fácil de reemplazar. Antiguamente, las placas traían una pila corriente soldada
en la placa base, lo que dificultaba muchísimo el cambio, además de otros
problemas como que la pila tuviera pérdidas y se sulfataran ésta y la placa.
Además, la BIOS contiene el programa de configuración, es decir, los menús y
pantallas que aparecen cuando accedemos a los parámetros del sistema,
pulsando una secuencia de teclas durante el proceso de inicialización de la
máquina.
Actualmente el interface es mucho más amigable (las BIOS marca AMI, se
gestionan con ventanas y con el ratón) y dan muchas facilidades, como la auto
detección de discos duros. Todavía recuerdo mi primer PC, un 286, en el que
por supuesto tenías que seleccionar tu flamante disco duro de 40 MB’s entre
una lista interminable (solías acertar al intento número 20), y las opciones de la
BIOS se seleccionaban en una matriz de ceros y unos.
UBICACIÓN DE LA BIOS
Se encuentra físicamente colocado sobre la placa base, normalmente sobre un
zócalo para permitir su fácil sustitución en caso de fallo o actualización.
Las tecnologías de la información y comunicación
Las tecnologías de la información y la comunicación (TIC, TICs o bien NTIC para
Nuevas Tecnologías de la Información y de la Comunicación o IT para «Information
Technology») agrupan los elementos y las técnicas utilizadas en el tratamiento y la
transmisión de las informaciones, principalmente de informática, internet y
telecomunicaciones.
Por extensión, designan el sector de actividad económica.
Las tecnologías de la información y la comunicación no son ninguna panacea ni fórmula
mágica, pero pueden mejorar la vida de todos los habitantes del planeta. Se disponen de
herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que
harán avanzar la causa de la libertad y la democracia, y de los medios necesarios para
propagar los conocimientos y facilitar la comprensión mutua" (Kofi Annan, Secretario
general de la Organización de las Naciones Unidas, discurso inaugural de la primera
fase de la WSIS, Ginebra 2003)[1]
El uso de las tecnologías de información y comunicación entre los habitantes de una
población, ayuda a disminuir en un momento determinado la brecha digital existente en
dicha localidad, ya que aumentaría el conglomerado de usuarios que utilizan las Tic
como medio tecnológico para el desarrollo de sus actividades y por eso se reduce el
conjunto de personas que no las utilizan.
Historia
Se pueden considerar las Tecnologías de Información y Comunicación (TIC) como un
concepto dinámico.[2] Por ejemplo, a finales del siglo XIX el teléfono podría ser
considerado una nueva tecnología según las definiciones actuales. Esta misma
definición podría aplicarse a la televisión cuando apareció y se popularizó en la década
de los 50 del siglo pasado. No obstante, hoy no se pondrían en una lista de TICs y es
muy posible que actualmente los ordenadores ya no puedan ser calificados de nuevas
tecnologías. A pesar de esto, en un concepto amplio, se puede considerar que el
teléfono, la televisión y el ordenador forman parte de lo que se llama TIC, tecnologías
que favorecen la comunicación y el intercambio de información en el mundo actual.
Después de la invención de la escritura, los primeros pasos hacia una sociedad de la
información estuvieron marcados por el telégrafo eléctrico, después el teléfono y la
radiotelefonía, la televisión e internet accesible gracias a los proveedores. La telefonía
móvil y el GPS han asociado la imagen al texto y a la palabra «sin cables», internet y la
televisión son accesibles en el teléfono móvil que es también una máquina de hacer
fotos.[3]
El acercamiento de la informática y de las telecomunicaciones, en el último decenio del
siglo XX se han beneficiado de la miniaturización de los componentes, permitiendo
producir aparatos «multifunciones» a precios accesibles, desde los años 2000.
Los usos de las TIC no paran de crecer y de extenderse, sobre todo en los países ricos,
con el riesgo de acentuar localmente la Brecha digital,[4] y social y la diferencia entre
generaciones. Desde la agricultura de precisión y la gestión del bosque, a la
monitorización global del medio ambiente planetario o de la biodiversidad, a la
democracia participativa (TIC al servicio del desarrollo sostenible) pasando por el
comercio, la telemedicina, la información, la gestión de múltiples bases de datos, la
bolsa, la robótica y los usos militares, sin olvidar la ayuda a los discapacitados (ciegos
que usan sintetizadores vocales avanzados), los TIC tienden a tomar un lugar creciente
en la vida humana y el funcionamiento de las sociedades.[5]
Algunos temen también una pérdida de libertad individual (efecto Gran hermano,
intrusismo creciente de la publicidad dirigida y no deseada...). Los prospectivistas,[6]
piensan que las TIC tendrían que tener un lugar creciente y podrían ser el origen de un
nuevo paradigma de civilización.
Las tecnologías DE INFORMACION Y
COMUNICACION
Las TIC conforman el conjunto de recursos necesarios para manipular la información y
particularmente los ordenadores, programas informáticos y redes necesarias para
convertirla, almacenarla, administrarla, transmitirla y encontrarla.
Se puede reagrupar las TIC según:



Las redes.
Los terminales.
Los servicios.
Las redes
A continuación se analizan las diferentes redes de acceso disponibles actuales.
Telefonía fija
El método más elemental para realizar una conexión a internet es el uso de un módem
en una acceso telefónico básico. A pesar que no tiene todas las ventajas características
de la banda ancha, ha sido el punto de inicio para muchos internautas, y es una
alternativa básica para zonas de menor poder adquisitivo.
En casi todos los países de la unión europea, el grado de disponibilidad de hogares con
línea telefónica es muy alto, excepto en Austria, Finlandia y Portugal. En estos países es
muy fuerte el efecto de substitución de la línea fija por una móvil.[13] De todas maneras,
en España, el acceso a internet por la red telefónica básica (banda estrecha)
prácticamente ha desaparecido. En el año 2003 la mitad de las conexiones a internet
eran de banda estrecha. En 2009, el 97% de los accesos a internet son ya por la banda
ancha. Casi el 95% es superior o igual a 1 Mbps.[14]
Banda ancha
Mapa de la distribución de clientes de banda ancha del 2005.
La banda ancha originariamente hacía referencia a la capacidad de acceso a internet
superior a los de un acceso analógico (56 kbps en un acceso telefónico básico o 128
kbps en un acceso básico RDSI). A pesar que el concepto varia con el tiempo en
paralelo a la evolución tecnológica.Según la Comisión federal de Comunicaciones de
los EEUU (FCC) se considera banda ancha el acceso a una velocidad igual o superior a
los 200 kbps, como mínimo en un sentido. Para la Unión Internacional de
telecomunicaciones el umbral se sitúa en los 2 Mbps.[15]
Según los países, se encuentran diferentes tecnologías: la llamada FTTH (fibra óptica
hasta el hogar), cable (Introducido en principio por distribución de TV), el satélite, el
rDSL (soportado en la red telefónica tradicional) y otros en fase de desarrollo. El
modelo de desarrollo de la conectividad en cada país ha sido diferente, y las decisiones
de los reguladores de cada país han dado lugar a diferentes estructuras de mercado.
En el gráfico se ve la evolución del acceso a internet, desde 1999 hasta el 2007, y como
crece el componente de la banda ancha.
Como ya se ha dicho, internet está evolucionando muy rápidamente con un gran
incremento de contenidos pesados (videos, música...) Por este motivo, los operadores se
están encontrando en muchas ocasiones que las redes tradicionales no tienen suficiente
capacidad para soportar con niveles de calidad adecuada el tránsito que se comienza a
generar, y además el problema crecerá con el tiempo, dado las actuales proporciones de
crecimiento. Algunos operadores de países de la Organización para la Cooperación y el
Desarrollo Económico (OCDE) están actualizando sus redes, llevando fibra hasta los
hogares (FTTH- Fibre-to-the-home) y fibra a los edificios (FTTB- Fibre-to-thebuilding). En diciembre de 2007, el número de accesos a banda ancha mediante fibra
suponía ya un 9% del total a los países de la OCDE, un punto porcentual más que un
año anterior. El ADSL continúa mostrando una superioridad con un 60% de las líneas
de banda ancha y el cable mantiene la segunda posición con un 29%..
Acceso a internet: Evolución y distribución en la Europa del los 15.
Este desarrollo de la tecnología de la fibra óptica no es uniforme entre los diferentes
países de la OCDE. Son los países asiáticos (Japón y Corea del Sur con un 44,5% y un
39,2% de las conexiones de banda ancha con esta tecnología), después de crecimientos
espectaculares de 14,5 puntos y 15 puntos porcentuales respectivamente en año y
medio, que absorben prácticamente todo el crecimiento de este tipo de tecnología; en
Europa con un 1% de las conexiones, justo ha empezado la renovación de la tecnología
actual por la fibra óptica.
Durante el año 2007, en los países de la Unión Europea el porcentaje de líneas ADSL
sobre el total de accesos de banda ancha era del 80,3%. Juega a favor de las tecnologías
xDSL los costes de implantación, y el desarrollo del ADSL 2+, de más gran capacidad y
abasto.[16]
Los motivos para preferir conexiones de banda ancha son el no tener la línea telefónica
ocupada, la velocidad del acceso y la posibilidad de estar siempre conectado. Así como
el acceso a nuevos servicios relacionados con la fotografía, la descarga de música o
vídeos. De menor manera, en el hogar, el equipo de conexión a internet (módem/router)
permite crear un entorno de red.
Telefonía móvil
Mensaje MMS en un terminal móvil.
En todo el mundo la telefonía fija ha estado superada en número por los accesos de
telefonía móvil, a pesar de ser un tipo de acceso que se encuentra desde hace menos
años en el mercado. Se debe a que las redes de telefonía móvil son más fáciles y baratas
de desplegar.
El número de líneas móviles en el mundo continúa en crecimiento, a pesar que el grado
de penetración en algunos países está cerca de la saturación. De hecho, en Europa la
media de penetración es del 119%.[17]
Las redes actuales de telefonía móvil permiten velocidades medias competitivas en
relación con las de banda ancha en redes fijas: 183 kbps en las redes GSM, 1064 kbps
en las 3G y 2015 kbps en las WiFi.[18] Esto permite el acceso a internet a usuarios con
alta movilidad , en vacaciones, o para los que no tienen acceso fijo. Y de hecho, se están
produciendo crecimientos muy importantes del acceso a internet de banda ancha desde
móviles y también desde dispositivos fijos pero utilizando acceso móvil. Este
crecimiento será un factor clave para dar un nuevo paso en el desarrollo de la Sociedad
de la Información. Las primeras tecnologías que permitieron el acceso a datos aunque a
velocidades no excesivas fueron el GPRS y el EDGE, ambas pertenecientes a lo que se
denomina 2.5G. Aunque, la banda ancha en telefonía móvil empezó con el 3G que
permitía 384 kbps y que ha evolucionado hacia el 3.5G, también denominado HSPA
(High Speed Packet Access) que permite hasta 14 Mbps de bajada HSDPA (High Speed
Downlink Packet Access) y teóricamente 5,76 Mbps de subida si se utiliza a más
HSUPA (High Speed Uplink Packet Access); estas velocidades son, en ocasiones,
comparables con las xDSL, y en un futuro no muy lejano también se prevee que
empiecen a estar disponibles tecnologías más avanzadas, denominadas genéricamente
Long Term Evolution o redes de cuarta generación y que permitirán velocidades de 50
Mbps.[19]
El ritmo de implantación de la tecnología 3G en el mundo es muy irregular, mientras en
Japón los usuarios de 3G son mayoría, en otras zonas, también desarrolladas como
Bélgica, es residual.[20] [21]
Estas tecnologías son capaces en teoría de dar múltiples servicios (imagen, voz, datos)
en altas velocidades, aunque en la práctica la calidad del servicio es variable.
La evolución del teléfono móvil ha permitido disminuir su tamaño y peso que nos hace
la vida mas fácil ya que nos permite comunicarse desde casi cualquier lugar. Aunque su
principal función es la comunicación de voz, como el teléfono convencional, su rápido
desarrollo ha incorporado otras funciones como son cámara fotográfica, agenda, acceso
a internet, reproducción de vídeo e incluso GPS y reproductor mp3.
Redes de televisión
Unidad móvil de una TV japonesa.
Actualmente hay cuatro tecnologías para la distribución de contenidos de televisión,
incluyendo las versiones analógicas y las digitales:




La televisión terrestre, que es el método tradicional de librar la señal de difusión de
TV, por ondas de radio transmitida por el espacio abierto. En este apartado estaría la
TDT.
La televisión por satélite, libra la señal vía satélite.
La televisión por cable es una forma de provenir la señal de televisión directamente a
los televisores por cable coaxial.
La televisión por internet traduce los contenidos en un formato que puede ser
transportado por redes IP, por eso también es conocida como Televisión IP.
En cuanto a la televisión por pago, el primer trimestre de 2008 muestra un
estancamiento en las modalidades de cable y de satélite mientras que la IPTV crece
considerablemente respecto a los datos de una año antes, consiguiendo en España los
636000 usuarios a finales del 2007. Los países con un número más importante de
suscriptores son Francia (4 millones) y Corea del Sur (1,8 millones). En el año 2008 se
introduce la TV sobre el terminal móvil, que en el primer trimestre del 2008 consigue
miles de clientes.[22] Bajo esta modalidad se ofrece un amplio catálogo de canales de
televisión y de vídeos y se preveen diversas opciones de comercialización, con el pago
por acceso a un paquete de canales o pago por consumo.
Las redes de televisión que ofrecen programación en abierto se encuentran en un
proceso de transición hacia una tecnología digital (TDT). Esta nueva tecnología supone
una mejora en la calidad de imagen, a la vez que permite nuevos servicios. En España,
durante un tiempo convivirán ambos sistemas, hasta el día 3 de abril de 2010 en que las
emisoras de televisión dejaran de prestar sus servicios mediante la tecnología analógica
para ofrecer únicamente la forma digital. Para poder sintonizar la televisión utilizando la
tecnología digital, es necesario realizar dos adaptaciones básicas: adaptación de la
antena del edificio, y disponer de un sintonizador de TDT en el hogar, que ha ido
creciendo en forma continúa, cosa que supone que la población ya es consciente de la
situación y no está esperando al último momento para prepararse. Destaca un cambio
importante de tendencia en la forma de adquirir los sintonizadores ya que al principio se
adquirían como dispositivos independientes para conectar externamente a los
televisores; mientras ya estos sintonizadores se compran incorporados a la propia
televisión o en otros dispositivos como el DVD. De esta manera, el número acumulado
de descodificadores integrados ha ultrapasado los no integrados.
A pesar del número de hogares preparados para la recepción de la televisión digital, aún
la cuota de pantalla conseguida no es demasiado significativa, a pesar del elevado
crecimiento durante el último año 2009. Esto es debido a que muchos hogares están
preparados para la recepción del señal digital pero aún continúan sintonizando los
canales en analógico. Por este motivo, un poco menos de la mitad de los hogares
preparados para recibir la TDT están utilizando esta posibilidad.
Redes en el hogar
Router con Wi-Fi.
Cada día son más los dispositivos que se encuentran en el interior de los hogares y que
tienen algún tipo de conectividad. También los dispositivos de carácter personal como
el teléfono, móvil, PDA..., son habituales entre los miembros de cualquier familia. La
proliferación de esta cantidad de dispositivos es un claro síntoma de la aceptación de la
Sociedad de la Información, aunque también plantea diversos tipos de problemas, como
la duplicidad de información en diferentes terminales, datos que no están sincronizados,
etc. Por este motivo surge la necesidad de las redes del hogar. Estas redes se pueden
implementar por medio de cables y también sin hilos, forma ésta mucho más común por
la mayor comodidad para el usuario y porque actualmente muchos dispositivos vienen
preparados con este tipo de conectividad.[23] Es muy común que los internautas
dispongan de redes sin hilos Wi-Fi, y dos de cada tres ya las han incorporado en su casa.
España se sitúa en segunda posición, por detrás tan sólo de Luxemburgo y muy por
encima de la media europea que es un 46%. En general y en todos los países las cifras
son muy superiores a las mostradas un año antes, con el crecimiento medio de 12 puntos
porcentuales en la Unión Europea.[24]
Además de la simple conexión de dispositivos para compartir información, son muchas
las posibilidades de las tecnologías TIC en los hogares. En un futuro próximo una gran
cantidad de servicios de valor añadido estarán disponibles en los hogares e incluirán
diferentes campos, desde los servicios relacionados con el entretenimiento como la
posibilidad de jugar online y servicios multimédia, hasta los servicios e-Health o
educativos que suponen un gran beneficio social, sobre todo en zonas más
despobladas.Lo que potenciará aún más la necesidad de redes dentro del hogar.[25]
Los terminales
Los terminales actúan como punto de acceso de los ciudadanos a la Sociedad de la
Información y por eso son de suma importancia y son uno de los elementos que más han
evolucionado y evolucionan: es continúa la aparición de terminales que permiten
aprovechar la digitalización de la información y la creciente disponibilidad de
infraestructuras por intercambio de esta información digital. A esto han contribuido
diversas novedades tecnológicas que han coincidido en el tiempo para favorecer un
entorno propicio, ya que la innovación en terminales va unida a la innovación en
servicios pues usualmente el terminal es el elemento que limita el acceso.[26]
Las novedades que hacen referencia a la capacidad y a la miniaturización de los
dispositivos de almacenaje son los que han permitido la creación de un conjunto de
nuevos dispositivos portátiles que administren contenidos multimedia, como los
reproductores portátiles de MP3 o de vídeo.[27]
Frontal de un PC Home Theater con teclado.
Empieza a ser habitual la venta de ordenadores personales para ser ubicados en la sala
de estar y que centralicen el almacenamiento y difusión de contenidos digitales en el
hogar, conocidos por las siglas inglesas HTPC (Home Theater Personal Computer) o
Media Center PC, y agrupan funciones como el almacenaje de música y vídeo en
formatos digitales; la substitución del vídeo doméstico por la grabación de programas
de televisión, la posibilidad de ver TV con facilidades de time shifting (control de la
emisión en vivo como si fuera una grabación); hacer servir el televisor como monitor
para visualizar página web. Esto es posible por el desarrollo de un programador
específico para este tipo de ordenadores.
Los años 2005 y 2006 fueron el momento de la aparición de nuevas generaciones de
dispositivos en el mundo de las consolas.[28] Según Yves Guillemot, CEO d'Ubisoft, la
próxima generación de consolas empezará el año 2011 o 2012, cuando las grandes
compañías actuales (Nintendo, Sony y Microsoft) darán un nuevo paso en busca de más
y mejores formas de entretenimiento interactivo. Además de las mejoras tecnologías de
sus componentes se ha dado el salto hacia la utilización de la alta definición de las
imágenes y del relieve en el almacenamiento del soporte DVD en modelos con formatos
Blu-ray.[29] Han aparecido nuevas consolas para público de más edad y caracterizadas
por un mejor acabado y mejores características técnicas.[30]
Otro hecho fundamental ha sido el abaratamiento de los televisores con tecnología
plasma y de cristal líquido como consecuencia de las mejoras en los procesos de
fabricación y en la gran competencia en este segmento del mercado. Desde el punto de
vista de la tecnología cabe destacar la gran madurez que ha conseguido la tecnología
OLED que puede convertirla en competencia de las dichas de plasma o TFT. Esta
renovación hacia nuevos tipos de terminales tiene su importancia, ya que la TV es el
único dispositivo en todos los hogares, y es alto su potencial para ofrecer servicios de la
Sociedad de la Información.
Los televisores planos con tecnología TFT/LCD ya están presentes en el 29 % de los
hogares.[31] El televisor actúa como catalizador a la hora de adquirir nuevos terminales,
como el vídeo o el DVD, yéndose en camino de las «tres pantallas»,[32] {término que
indica la realidad según la cual los usuarios utilizan las pantallas de tres dispositivos
diferentes: televisión, PC y móvil para visionar vídeos, ya sean de naturaleza DVD,
online o TV. Este hecho marca la evolución del hogar digital; ya están algunos los
dispositivos en el mercado que permiten transmitir vídeo entre terminales, como el iTV
de Apple, que permite descargar películas de internet y verlas al instante en el televisor
mediante una conexión WI-FI. Son muchos los usuarios para los que las dos pantallas
«PC» y «TV» son habituales, las tres pantallas aún no han alcanzado un grado de
penetración tan alto por el bajo nivel de inclusión del vídeo sobre móvil.
A pesar que hay un 43% de personas que utiliza el PC para ver vídeos, suelen ser cortos
del estilo YouTube o películas en DVD, mientras que los programas más largos se
continúan viendo a través de la televisión. En cuanto al resto de dispositivos, los
teléfonos fijos y móviles son los más habituales en los hogares entre los dedicados a la
comunicación. También se remarca la fuerte presencia de equipos de música de alta
fidelidad.
El equipamiento del hogar se complementa poco a poco con otros dispositivos de ocio
digital. Seis de cada diez hogares disponen de DVD, uno de cada cuatro tiene cámara de
fotos digital. Una evolución menor ha tenido el home cinema o la videocámara digital,
que experimentan un crecimiento muy bajo en los últimos años.
Ordenador personal
Según datos de Gartner el número de PC superó en el 2008 los mil millones en el
mundo.[33] encontrándose más del 60% en los mercados más maduros como los EUA,
Europa y Japón. A pesar de la crisis económica en el segundo trimestre de 2008, el
crecimiento fue del 16%, aunque se espera un descenso del 6% en el 2009,[34] a pesar
del crecimiento en países como la China, India y Brasil, por el gran ritmo de adopción
de la Sociedad de la Información en estos países y también por la tendencia al
abaratamiento de los costes. En Europa, el porcentaje de hogares con ordenador es muy
alta, por encima del 55%. España con un 46%, se encuentra por debajo de la media
europea.[35] En cuanto a la tipología de los ordenadores, los de sobremesa están más
extendidos que los portátiles en todos los países de la Unión Europea. Esto se debe en
gran parte en que hasta hace poco tiempo, los ordenadores portátiles tenían precios muy
superiores a los de sobremesa y tenían unas prestaciones inferiores. El porcentaje de
hogares que sólo tienen ordenador fijo disminuye en los países que alcanzan mayor
grado de desarrollo relativo a la Sociedad de la Información, como Dinamarca,
Holanda, Suecia, Finlandia y Luxemburgo donde el número de hogares con ordenador
portátil sobrepasa el 30%.[36] El incremento en el número de ordenadores portátiles
guarda relación con diferentes hábitos de los usuarios que están dejando de entender el
ordenador como un dispositivo de uso comunitario para convertirlo en un dispositivo
personal.[37] En general el propietario de ordenador portátil suele ser gente más
avanzada tecnológicamente; el perfil se corresponde, por un lado, con usuarios jóvenes
(más de tres cuartas partes se encuentran por debajo de los 45 años); y por otra parte
tienen un comportamiento totalmente diferente, más interesados en ver vídeos en la
Web, hacer servir la red del hogar para descargar música y vídeos, y para escuchar
audio. Otro factor importante que explica el boom actual de los ordenadores portátiles
respecto a los de sobremesa es la gran bajada de precios que han experimentado. Así,
según datos de NPD, el precio de los portátiles ha disminuido un 25% entre junio del
2006 y junio del 2008 delante del 1% de descenso en los de sobremesa.[38] [39]
Fotografía de un netbook.
Durante el año 2008 se ha asistido al nacimiento del concepto del netPC, netbook o
subportátil, que tiene su origen en la iniciativa OLPC (One Laptop per Child, Un
ordenador para cada niño) propulsada por el guru Nicholas Negroponte a fin de hacer
accesible la Sociedad de la Información a los niños del Tercer mundo mediante la
fabricación de un ordenador de bajo coste. Su desarrollo ha permitido dos cosas:
tecnologías de equipos a un coste muy inferior del tradicional e incentivos a los
fabricantes para intentar capturar un mercado incipiente y de enorme abasto potencial.
Siguiendo este concepto, los fabricantes han desarrollado en los últimos años diversos
modelos en esta línea. Esta nueva categoría de equipos, pequeños ordenadores portátiles
que incorporan todos los elementos básicos de un ordenador clásico, pero con tamaño
notablemente más pequeño y lo que es más importante un precio bastante inferior. El
precursor ha sido el Ecc PC de Asus,[40] que ha sido el único de estos dispositivos
disponible en el mercado, aunque durante la segunda mitad del 2008 se ha producido
una auténtica lluvia de ordenadores en este segmento de múltiples fabricantes.[41]
Navegador de internet
Logo modificado de Firefox.
La mayoría de los ordenadores se encuentran actualmente conectados a la red. El PC ha
dejado de ser un dispositivo aislado para convertirse en la puerta de entrada más
habitual a internet. En este contexto el navegador tiene una importancia relevante ya que
es la aplicación desde la cual se accede a los servicios de la Sociedad de la Información
y se está convirtiendo en la plataforma principal para la realización de actividades
informáticas.
El mercado de los navegadores continúa estando dominado por Internet Explorer de
Microsoft a pesar que ha bajado su cuota de penetración en favor de Firefox y de Safari.
Apple ha realizado grandes esfuerzos para colocar Safari en un lugar relevante del
mercado, y de hecho, ha hecho servir su plataforma iTunes para difundirlo, cosa que ha
estado calificada de práctica ilícita por el resto de navegadores. NO obstante esto, y a
pesar que ha subido su cuota de mercado y que cuenta con un 8,23% de penetración,
aún se encuentra a mucha distancia de sus dos competidores principales.[42] Parece de
esta manera romperse la hegemonía completa que Microsoft ejerce en el sector desde
que a finales de la década de los noventa se impuso sobre su rival Netscape. La función
tradicional de un navegador era la de presentar información almacenada en servidores.
Con el tiempo, se fueron incorporando capacidades cada vez más complejas. Lo que en
un principio eran simples pequeñas mejoras en el uso, con el tiempo se han convertido
en auténticos programas que en muchos casos hacen la competencia a sus alternativas
tradicionales. En la actualidad existen aplicaciones ofimáticas muy completas que
pueden ejecutarse dentro de un navegador: Procesadores de texto, hojas de cálculo,
bases de datos que cada vez incorporan más funcionalidades y que para muchos usos
son capaces de reemplazar a sus alternativas del escritorio. Existen también aplicaciones
tan complejas como el retoque fotográfico o la edición de vídeo, de forma que el
navegador, unido a la disponibilidad cada vez más grande de la banda ancha, se está
convirtien en la plataforma de referencia para las actividades informáticas. En 20082009 se dan dos hechos significativos, relacionados con navegadores web:


La versión tres del navegador web Firefox incluye un gestor que permite que las
aplicaciones online puedan ser ejecutadas cuando no se dispone de conexión a
internet.
Google ha entrado en el mercado de los navegadores con el lanzamiento de Chrome el
mes de septiembre.[43] Su principal diferencia respecto a los navegadores tradicionales
es que su estructura interna se parece más a un sistema operativo que ejecuta
aplicaciones web que a un navegador web clásico. Para Chrome, cada página web es
un proceso diferente. Dispone de una herramienta de gestión de dichos procesos
similar a la de un sistema operativo (como el Administrador de trabajo del Windows),
que permite realizar acciones como acabar procesos que se han colgado (páginas web
que no responden) o buscar el uso de recursos básicos del sistema. Esto, que parece
innecesario para una página web convencional, es una gran facilidad para las páginas
web que incluyen aplicaciones online (como, Gmail, Google Docs, etc.). Chrome
complementa perfectamente Google Gears, un software para permitir el acceso offline a servicios que normalmente sólo funcionan on-line.
Sistemas operativos para ordenadores
El número de personas que utilizan GNU/Linux como sistema operativo de cliente ha
superado ligeramente el 1% (desde el 0,68% el año anterior). Mac OS, por su parte,
llega al 9,73 (8%) y Windows un 87,9 (desde el 91%)[44] [45] Durante el año 2007
Microsoft realizó el lanzamiento del sistema Windows Vista, que incluye diversas
novedades; no obstante esto, después de quince meses en el mercado, su aceptación ha
sido inferior al que se esperaba, con cuotas próximas al 15%, una penetración más baja
que la de Windows XP en su momento. El motivo de este retardo es que este sistema
necesita una maquinaria de gran potencia para poder funcionar correctamente, cosa que
ha hecho que muchos usuarios y empresas al desinstalar sus versiones aparezcan
problemas de uso. Por estos motivos Microsoft anunció el Windows 7, un nuevo
sistema que reemplazará el Vista posiblemente el año 2009-2010. Se ha intentado que el
nuevo sistema fuese ligero para cargarse más rápido y para poderse utilizar sin
problemas en ordenadores menos potentes.
Teléfono móvil
Archivo:BlackBerry 8900.jpg
BlackBerry 8800c.
Los primero dispositivos móviles disponían simplemente de las funcionalidades básicas
de telefonía y mensajes SMS. Poco a poco se han ido añadiendo pantallas de colores,
cámaras de fotos... En 2004 llegaron los primeros terminales UMTS y la posibilidad de
videoconferéncias. En el año 2005, los teléfonos fueron capaces de reproducir MP3,
también, sistemas operativos y conexión a internet, destacando los Blackberry de la
empresa Research in Motion (RIM). De esta manera, los usuarios empezaron a entender
el móvil como una prolongación de sus Pcs en movimiento, cosa que ha hecho
desembocar a una doble evolución: unos móviles más centrados en el entretenimiento
que tienen como principal característica la capacidad multimedia, y móviles más
centrados en la productividad que destacan por tener teclado qwerty y están optimizados
para la utilización [[e-mail].
De todos los terminales, el teléfono móvil es uno de los más dinámicos por lo que a su
evolución se refiere. La gran competencia entre los fabricantes por un mercado en
continuo crecimiento ha comportado el lanzamiento de un gran número de novedades
anualmente, y sobre todo a una reducción de los ciclos de vida con el consiguiente
riesgo para las compañías que en algunas ocasiones, justo amortizan sus inversiones.
La crisis económica en la cual se encuentran gran parte de las economías, ha hecho que
también el sector de los móviles se resienta y en el cuarto trimestre del 2008 se registró
una caída del 12% de las ventas.[46] En el año 2007 se incorpora el GPS a los móviles, y
en el 2008 un 40% de los móviles vendidos en la zona EMEA (Europa, Oriente Medio y
África) tiene incorporado el GPS, según Canalys.[47] [48]
Se está viviendo un proceso de convergencia en los dispositivos móviles, que
supondrían la suma de un sistema operativo (smartphones) y de PDAs con conexión sin
cables. El dispositivo más famoso es el iPhone 3G, que marca un antes y un después ja
que cambia la experiencia del usuario en cuanto a la navegación móvil. Además, el
iPhone es un nuevo concepto de terminal, el sistema incluye la tienda de aplicaciones
centralizada AppStore desde donde se pueden comprar aplicaciones especialmente
diseñadas para el dispositivo que aprovecha toda su tecnología, como su interface táctil
Multi-touch, el GPS, los gráficos 3D en directo y el audio posicional en 3D. Según
datos de julio del 2008 hay miles de aplicaciones que permiten personalizar el
terminal.[49] También se puede disponer de aplicaciones web que faciliten el acceso y el
uso de servicios que utilizan la red, como Facebook. El servicio Mobile M de Apple
permite a todos los usuarios recibir mensajes de correo electrónico automáticamente al
móvil a la vez que llegan al ordenador, pero también permite actualizar y sincronizar
correos, contactos y agendas.[50]
Según datos de M:metrics (EUA), el iPhone es el dispositivo móvil más popular para
acceder a las noticias con un porcentaje del 85% de los usuarios de iPhone en enero de
2008.[51] Estos datos reflejan un grado de aceptación de estos servicios completamente
inusual y que se completa por el grado de utilización de otros servicios, el 30,9% de los
propietarios de iPhone ven la televisión en el móvil, el 49,7% accedió a redes sociales
durante el último mes y también son muy populares otros servicios como YouTube y
GoogleMap (el 30,4% y el 36% respectivamente).[52] <Otras empresas (Samsung y
Nokia) han mejorado la interface de sus terminales. También Research in Motion ha
lanzado la versión 9000 de su terminal móvil, la famosa Blackberry, con grandes
mejoras en la navegación del iPhone.[53] El uso del móvil crece y no sólo para hacer
llamadas o enviar mensajes y es que todos estos terminales y funciones ayudan a
extender la Sociedad de la Información, a pesar que tienen más funciones que las que
realmente reclamen los usuarios. Por ejemplo, en el caso de la cámara de fotos y del
bluetooth, más de la mitad de los usuarios que disponen de estas capacidades no hacen
uso de ellas.[54]
Televisor
El televisor es el dispositivo que tiene el grado de penetración más alto en todos los
países de la Unión Europea, un 96% de los hogares tienen como mínimo un televisor, y
en tres países: Malta, Luxemburgo y Chipre esta tasa llega al 100%.[55]
A pesar de la alta tasa en todos los países, hay algunas diferencias de origen cultural,
más alta en los países mediterráneos e inferior a los países nórdicos: curiosamente
Suecia y Finlandia ocupan las últimas posiciones, justo al contrario de la posición que
ocupan a casi todos lo sindicadores que están relacionados con la Sociedad de la
Información. Por esta alta tasa de penetración, durante mucho tiempo se consideró que
podría ser el dispositivo estrella del acceso a la Sociedad de la Información, no obstante
esto, durante el año 2007 sólo un 2% accedió a internet por esta puerta de entrada.
La renovación del parque de televisores está cambiando drásticamente el tipo de estos
terminales en los hogares. Las nuevas tecnologías, como el plasma, el TFT o el OLED
han desplazado completamente a los televisores de tubo de rayos catódicos, que han
quedado como residuales en las gamas más bajas y de pequeñas dimensiones, esta
popularidad de los televisores avanzados tiene como consecuencia una bajada continua
de los precios. A pesar que la venta de televisores tradicionales casi ha desaparecido, el
parque de televisores instalados suele tener una antigüedad alta, y se encuentra en un
buen número de hogares la convivencia de ambos tipos de modelos.
Estos terminales empiezan a incluir otras funcionalidades como el sintonizador de TDT
que ya supera con amplitud a los televisores que no lo incluyen, disco duro o puerto de
USB, o en los casos más avanzados conexión sin hilo, Bluetooth y Wi-fi.
El año 2008, Samsung y Sony presentaron televisores OLED de 31 pulgadas y con unos
8 milímetros de grueso. Esta tecnología permite obtener una nitidez de imagen y una
gama e intensidad de colores que supera a cualquier otro producto actual, importante es
el paso a las pantallas de 200 hertzs.[56]
Otro fenómeno que se está produciendo es la entrada de alta definición en muchos
nuevos terminales.[57] Hay dos “familias” de formatos de televisión de alta definición
(HDTV) : 1920 píxels X 1080 líneas o 1280 píxels X 720 líneas. Según datos de Jupiter
Research, en Europa un 11% de los televisores están preparados, aunque sólo un 5%
utilizan esta finalidad. La resolución de las pantallas de ordenadores es un general muy
superior a la de los aparatos de televisión tradicionales; ha empezado un proceso de
convergencia entre ambos tipos de pantallas.
Reproductores portátiles de audio y vídeo
Desde el 2005, el mercado de los reproductores portátiles se encuentra en un proceso de
renovación hacia aquellos dispositivos que son capaces de reproducir MP3 y MP4.
Todas las otras formas de audio, como os dispositivos analógicos (radios), y
dispositivos digitales (lectores de CD en todos los formatos), se encuentran en claro
retroceso. El proceso de renovación se encuentra con la convergencia de diversas
funciones en un mismo aparato, como por ejemplo el teléfono móvil que muchas veces
incorpora funciones de audio como reproductor de MP3 o radio.
Consolas de juego
Durante el año 2007, se produjo una explosión en las ventas en el mundo de
videoconsolas. Las nuevas consolas PlayStation 3 de Sony, Nintendo Wii de
Nintendo,[58] y Xbox 360 de Microsoft renovaron el panorama de las consolas
ofreciendo a los usuarios una experiencia de «nueva generación». En enero del 2009 la
consola Wii llegó al tercer lugar de uso de las consolas.[59] Una parte importante del
éxito de la consola Wii se basa en su enfoque innovador del concepto de los juegos que
hacen que el jugador se involucre en hacer físicamente los movimientos de los juegos en
que participa. Una parte importante radica en que ha sido capaz de crear una comunidad
de juegos que saben sacar partido de las calidades diferentes de Wii, como el juego Wii
Fit que incita a realizar deporte a la vez que se juega. También ha sabido atraer a gente
de prestigio reconocido y de gran influencia mediática como Steven Spielberg que se ha
iniciado en el mundo de los videojuegos con el juego Bloom Blox para esta consola. Así
la supremacía también se consolida en el campo de los juegos donde de los cinco
vieojuegos más vendidos en el mundo al mayo de 2008, cuatro corresponden a la
consola Wii.[60] Han aparecido nuevas consolas para público de más edad y
caracterizadas por un mejor acabado y mejores características técnicas, como la consola
PSP de Sony, con una excelente pantalla, que permite incluso reproducir películas y un
gran acabado.[30]
Mas de doscientos millones de videojuegos para consolas se vendieron en Europa
durante el 2008, con un crecimiento del 18% respecto al año anterior.[61] Las consolas
han ido incluyendo un gran número de capacidades -en la línea de convergencia de
dispositivos- principalmente opciones multimédia, como reproducir películas o escuchar
música MP3.
Servicios en las TIC
Las tecnologías están siendo condicionadas por la evolución y la forma de acceder a los
contenidos, servicios y aplicaciones, a medida que se extiende la banda ancha y los
usuarios se adaptan, se producen unos cambios en los servicios.
Con las limitaciones técnicas iniciales (128 kbps de ancho de banda), los primeros
servicios estaban centrados en la difusión de información estática, además de
herramientas nuevas y exclusivas de esta tecnología como el correo electrónico, o los
buscadores.
Las empresas y entidades pasaron a utilizar las TIC como un nuevo canal de difusión de
los productos y servicios aportando a sus usuarios una ubicuidad de acceso. Aparecieron
un segundo grupo de servicios TIC como el comercio electrónico, la banca online, el
acceso a contenidos informativos y de ocio y el acceso a la administración pública.
Son servicios donde se mantiene el modelo proveedor-cliente con una sofisticación, más
o menos grande en función de las posibilidades tecnológicas y de evolución de la forma
de prestar el servicio.
Correo electrónico
Artículo principal: Correo electrónico
Es una de las actividades más frecuentes en los hogares con acceso a internet. El correo
electrónico y los mensajes de texto del móvil han modificado las formas de interactuar
con amigos.
Un problema importante es el de la recepción de mensajes no solicitados ni deseados, y
en cantidades masivas, hecho conocido como correo basura o spam. Otro problema es el
que se conoce como phishing, que consiste en enviar correos fraudulentos con el
objetivo de engañar a los destinatarios para que revelen información personal o
financiera.
Búsqueda de información
Artículo principal: Motor de búsqueda
Es uno de los servicios estrella de la Sociedad de la Información, proporcionado para
los llamados motores de búsqueda, como Google o Yahoo, que son herramientas que
permiten extraer de los documentos de texto las palabras que mejor los representan.
Estas palabras las almacenan en un índice y sobre este índice se realiza la consulta.
Permite encontrar recursos (páginas web, foros, imágenes, vídeo, ficheros, etc.)
asociados a combinaciones de palabras.[62] Los resultados de la búsqueda son un listado
de direcciones web donde se detallan temas relacionados con las palabras clave
buscadas. La información puede constar de páginas web, imágenes, información y otros
tipos de archivos. Algunos motores de búsqueda también hacen minería de datos y están
disponibles en bases de datos o directorios abiertos. Los motores de búsqueda operan a
modo de algoritmo o son una mezcla de aportaciones algorítmicas y humanas. Algunos
sitios web ofrecen un motor de búsqueda como principal funcionalidad: Dailymotion,
YouTube, Google Video, etc. son motores de búsqueda de vídeo.[63]
Banca online
Artículo principal: Banca online
El sector bancario ha sufrido una fuerte revolución los últimos años gracias al desarrollo
de las TIC, que ha permitido el fuerte uso que se está haciendo de estos servicios. Su
éxito se debe a la variedad de productos y a la comodidad y facilidad de gestión que
proporcionan. Los usuarios del banco lo utilizan cada vez más, por ejemplo, para
realizar transferencias o consultar el saldo.[64]
Los problemas de seguridad son el phishing; el pharming, que es la manipulación del
sistema de resolución de nombres en internet, que hace que se acceda a una web falsa;
el scam, intermediación de transferencias.[65]
Audio y música
Artículo principal: Reproductor de audio portátil
Desde la popularidad de los reproductores MP3, la venta o bajada de música por
internet está desplazando los formatos CD.
Un nuevo servicio relacionado con los contenidos de audio es el podcast, esta palabra
viene de la contracción de iPod y Broadcast. Son ficheros de audio grabados por
aficionados o por medios de comunicación, que contienen noticias, música, programas
de radio, entre otros. Se codifican normalmente en MPS, aunque pueden ser escuchados
en el ordenador, es más habitual utilizar los reproductores portátiles de MP3, como el
iPod, que en abril del 2008 había vendido 150 millones de unidades en todo el
mundo.[66]
TV y cine
Artículo principal: Alta definición
Como servicio diferencial está el que ofrecen algunas redes de televisión IP, y que
consiste en ver contenidos en modalidad de vídeo bajo demanda. De manera que el
usuario controla el programa como si tuviera el aparato de vídeo en casa.
La TDT ofrecerá servicios de transmisión de datos e interactividad, en concreto guías
electrónicas de programación, servicios de información ciudadana y los relacionados
con la administración y el comercio electrónico.

Comparación de los distintos formatos
HDTV, cuatro veces la resolución estándar.
Resolución estándar.
Las emisiones en alta definición no acaban de imponerse en todo el mundo por la
existencia de dos formatos posibles, cosa que obliga a las operadoras a escoger uno, con
el riesgo de optar por la opción menos popular, otro motivo es la poca oferta de
contenidos en alta definición.
Otro servicio, similar al audio, es el streaming de contenidos de TV. Ahora mismo hay
numerosos lugares web que ofrecen el acceso a emisiones de TV por internet vía
streaming, que permite escuchar y ver los archivos mientras se hace la transferencia, no
siendo necesaria la finalización del proceso.
Comercio electrónico
Artículo principal: Comercio electrónico
El comercio electrónico es una modalidad de la compra en distancia que está
proliferando últimamente, , por medio de una red de telecomunicaciones, generalmente
internet, fruto de la creciente familiarización de los ciudadanos con las nuevas
tecnologías. Se incluyen las ventas efectuadas en subastas hechas por vía electrónica.
Según datos de Eurostat 2008, un 30 % de los europeos utilizaron internet para realizar
compras de carácter privado durante el 2007, siendo Dinamarca (55%), y Holanda
(55%), los que más lo usaron. Los que estaban en los últimos lugares eran Bulgaria y
Rumanía ( 3%). Una de cada ocho personas en la Europa de los 27, evita las compras
electrónicas por cuestiones de seguridad.[67]
E-administración- E-gobierno
Artículo principal: E-administración
Artículo principal: E-gobierno
La tercera actividad que más realizan los internautas es visitar webs de servicios
públicos, se encuentra sólo por detrás de la búsqueda de información y de los correos
electrónicos. Es una realidad, que cada vez más usuarios de internet piden una
administración capaz de sacar más provecho y adaptada a la sociedad de la información.
La implantación de este tipo de servicios es una prioridad para todos los gobiernos de
los países desarrollados.
Singapur y Canadá continúan liderando el mundo – con un 89 y 88 por ciento,
respectivamente- en cuanto a la madurez de su servicio de atención respecto a
impuestos, centro de la comunidad o pensiones. Esto se debe que ambos países
desarrollan estrategias para conseguir una mejoría continua del servicio de atención al
cliente en cada una de las cuatro áreas claves: «conocer el cliente, conectar, alinear el
personal y no actuar en solitario»-[44] [69] En los países de la Unión Europea el grado de
evolución se mide por el grado de implantación y desarrollo de los veinte servicios
básicos definidos en el programa Europa 2005, y que se detallan a continuación:
Servicios públicos a los ciudadanos:





Pagos de impuestos.
Búsqueda de ocupación.
Beneficios de la Seguridad Social (tres entre los cuatro siguientes).
o Subsidio de desocupación.
o Ayuda familiar.
o Gastos médicos (reembolso o pagos directos).
o Becas de estudios.
Documentos personales (pasaporte y permiso de conducir).
Matriculación de vehículos (nuevos, usados e importados).







Solicitud de licencias de construcción.
Denuncias a la policía.
Bibliotecas públicas (disponibilidad de catálogos, herramientas de búsqueda).
Certificados (nacimiento, matrimonio).
Matriculación en la enseñanza superior/universidad.
Declaración de cambio de domicilio.
Servicios relacionados con la Salud.
Servicios públicos a las empresas:








Contribuciones a la Seguridad Social para empleados.
Impuestos de sociedades: declaración, presentación.
IVA: declaración, presentación.
Registro de nuevas sociedades.
Tramitación de datos para estadísticas oficiales.
Declaraciones de aduanas.
Permisos medioambientales (presentación de informes incluido).
Compras públicas o licitaciones.
E-sanidad
Las TIC abren unas amplias posibilidades para la renovación y mejora de las relaciones
paciente-médica, médico-médica y médico-gestor. El objetivo es mejorar los procesos
asistenciales, los mecanismos de comunicación y seguimiento y agilizar los trámites
burocráticos.
Educación
La formación es un elemento esencial en el proceso de incorporar las nuevas
tecnologías a las actividades cotidianas, y el avance de la Sociedad de la Información
vendrá determinado. El e-learning es el tipo de enseñanza que se caracteriza por la
separación física entre el profesor y el alumno, y que utiliza internet como canal de
distribución del conocimiento y como medio de comunicación. Los contenidos de elearning están enfocados en las áreas técnicas.A traves de esta nueva forma de
enseñanza al alumno y el docente pueden administra sus tiempo, hablamos de una
educación asincrónica.
Todo esto introduce también el problema de la poca capacidad que tiene la escuela para
absorber las nuevas tecnologías. En este sentido, otro concepto de Nuevas Tecnologías
son las NTAE (Nuevas Tecnologías Aplicadas a la Educación). El uso de estas
tecnologías, entendidas tanto como recursos para la enseñanza como medio para el
aprendizaje como medios de comunicación y expresión y como objeto de aprendizaje y
reflexión (Quintana, 2004).
Entre los beneficios más claros que los medios de comunicación aportan a la sociedad
se encuentran el acceso a la cultura y a la educación, donde los avances tecnológicos y
los beneficios que comporta la era de la comunicación lanzan un balance y unas
previsiones extraordinariamente positivas. Algunos expertos han incidido en que debe
existir una relación entre la información que se suministra y la capacidad de asimilación
de la misma por parte de las personas, Por esto, es conveniente una adecuada educación
en el uso de estos poderosos medios.
Aplicación de las Tic's en educación
Dentro del sector educativo, es primordial el aprendizaje y manejo de las tecnologías
informáticas. Debemos además fomentar su aplicación a las distintas disciplinas,
contribuyendo a que los usuarios no sean meros receptores de contenidos, sino que
estén abiertos a la participación en el ciberespacio. La aplicación de las TIC en la
educación presenta principalmente tres vías de desarrollo: El conocimiento y uso de las
nuevas herramientas tecnológicas. Es necesario conocer herramientas y programas
informáticos que puedan aplicarse en los diferentes ámbitos sociales y educativos:
procesadores de textos, bases de datos, etc. Las TIC como método de apoyo en la
enseñanza curricular. Los conocimientos informáticos pueden estar implicados en una
nueva forma de aprender a partir de nuevos lenguajes informáticos y procesos
cognitivos. Las WebQuest, la Caza del Tesoro o las Bitácoras son algunos de los
recursos educativos creados en torno a las TIC que refuerzan el aprendizaje y el
conocimiento en la enseñanza curricular. La educación online o e-learning, que genera
una nueva forma de aprender a través de la creación y el acceso a contenido basada en
la interacción entre alumnos y profesores. La Web 2.0, basada en una plataforma que
alberga multitud de servicios a disposición de las diversas comunidades de usuarios,
fomenta el intercambio de información. Algunos de estos servicios son chats, foros,
wikis, blogs, etc.
La educación en México ha de replantear sus objetivos, metas, pedagogías y didácticas.
Las mismas fuerzas tecnológicas que harán tan necesario el aprendizaje, lo harán
agradable y práctico. Las escuelas, como otras instituciones, están reinventándose
alrededor de las oportunidades abiertas por la tecnología de la información. Las redes
educativas virtuales se están transformando en las nuevas unidades básicas del sistema
educativo, que incluyen el diseño y la construcción de nuevos escenarios educativos, la
elaboración de instrumentos educativos electrónicos y la formación de educadores
especializados en la enseñanza en un nuevo espacio social. En este sentido, en
Argentina se lanzó un programa educacional a través del cual cada alumno de una
escuela secundaria se hace acreedor de una netbook para poder tener acceso a las
ventajas que las nuevas herramientas tecnológicas ofrecen.
Videojuegos
La industria del entretenimiento ha cambiado, el escenario tradicional donde la música y
el cine estaba en primer lugar, ha cambiado y ahora dominan los videojuegos. Sobre
todo la consola, utilizada principalmente con juegos fuera de línea, Hay una tendencia a
utilizar cada vez menos el ordenador personal como plataforma de juegos, a pesar de la
crisis económica, hay un aumento en el volumen de ventas de juegos y consolas.
Los juegos más vendidos en todo el mundo durante el 2009 son World of Warcraft y
Second Life. El futuro de los juegos sigue la tendencia de convergencia del resto de
aplicaciones. Por ejemplo, en los Estados Unidos, cuando empieza el proceso de
creación de una película se diseñan conjuntamente film y videojuego y éste forma parte
del merchandising.
Servicios móviles
La telefonía móvil es uno de los apartados que aporta más actividad a los servicios de
las TIC. Además de las llamadas de voz, los mensajes cortos (SMS) es uno de los
sistemas de comunicación más baratos, eficaces y rápidos que existen. Los mensajes
multimedia (MMS) van ganando peso, poco a poco.
El móvil se ha convertido en un dispositivo individual, asociado a una persona y por lo
tanto con una fuerte tendencia a la personalización: descarga de logos, imágenes y
melodías son servicios muy demandados. Como ya se ha dicho en el apartado de
terminales, los nuevos terminales permiten el acceso a otras plataformas, y así el 30,9%
de los propietarios del iPhone ven la televisión en el móvil o el 49,7% acceden a redes
sociales.
Nueva generación de servicios TIC
La mayor disponibilidad de banda ancha (10 Mbps) ha permitido una mayor
sofisticación de la oferta descrita, se puede acceder a la TV digital, vídeo bajo demanda,
juegos online, etc.
El cambio principal que las posibilidades tecnológicas han propiciado ha sido la
aparición de fórmulas de cooperación entre usuarios de la red, donde se rompe el
paradigma clásico de proveedor-cliente.
La aparición de comunidades virtuales o modelos cooperativos han proliferado los
últimos años con la configuración de un conjunto de productos y formas de trabajo en la
red, que se han recogido bajo el concepto de Web 2.0. Son servicios donde un
proveedor proporciona el soporte técnico, la plataforma sobre la que los usuarios autoconfiguran el servicio. Algunos ejemplos son:
Servicios Peer to Peer (P2P)
Artículo principal: Peer-to-peer
Es la actividad que genera más tráfico en la red. Se refiere a la comunicación entre
iguales para el intercambio de ficheros en la red, donde el usuario pone a disposición del
resto, sus contenidos y asume el papel de servidor. Las principales aplicaciones son
eMule y Kazaa. La mayor parte de los ficheros intercambiados en las redes P2P son
vídeos y audio, en diferentes formatos.
Blogs
Un blog, (en español también una bitácora) es un lugar web donde se recogen textos o
artículos de uno o diversos autores ordenados de más moderno a más antiguo, y escrito
en un estilo personal e informal. Es como un diario, aunque muchas veces
especializado, dedicado a viajes o cocina, por ejemplo. El autor puede dejar publicado
lo que crea conveniente.
Comunidades virtuales
Han aparecido desde hace pocos años un conjunto de servicios que permiten la creación
de comunidades virtuales, unidas por intereses comunes. Se articulan alrededor de dos
tipos de mecanismos:


Los etiquetados colectivos de información, para almacenar información de alguna
manera (fotografías, bookmarks...). Un ejemplo sería el flickr
Las redes que permiten a los usuarios crear perfiles, lista de amigos y amigos de sus
amigos. Las más conocidas son MySpace, Facebook, LinkedIn, Twitter.
Sus bases tecnológicas están basadas en la consolidación de aplicaciones de uso común
en un único lugar. Se utilizan tecnologías estándares, como el correo electrónico y sus
protocolos; http para facilitar las operaciones de subir y bajar información, tanto si son
fotos o si es información sobre el perfil. Las características del chat también están
disponibles y permiten a los usuarios conectarse instantáneamente en modalidad de uno
a uno o en pequeños grupos.
Impacto y evolución de los servicios
En la tabla se puede ver cuáles son los servicios más populares en Europa. Aunque los
datos son del año 2005, marcan claramente la tendencia del estilo de vida digital.

Problemas de rentabilidad:
1. Costo del material, del Software, del mantenimiento y de la renovación.
2. Es frecuente ver aparecer un equipamiento excesivo respecto a las necesidades y
una sub-utilización de los software.
3. Costo de la formación del personal, de su resistencia a los cambios.
4. Costo general para la modificación de las estructuras, para la reorganización del
trabajo, para la superabundancia de las informaciones.
5. Costo debido al ritmo constante de las innovaciones (18 meses)6. Rentabilidad difícilmente cuantificable o difícilmente previsible sobre los
nuevos productos.

Otras inversiones pueden ser igualmente benéficas:
1. Investigación y desarrollo.
2. Formación del personal.
3. Formaciones comerciales, organizativas, logísticas.
Las mundialización de las TIC, permiten un acceso 24h/24, desde cualquier punto de la
Tierra, a un conjunto de recursos (datos, potencia informática), que comporta también
efectos perversos en términos de seguridad y de ética agravados por la
internacionalización de determinadas actuaciones: chantaje, estafa, subversión, etc. Se
puede afirmar que ningún gobierno, no ha conseguido una vigilancia o a imponer un
respeto de reglas « mínimas consideradas comunes».
Efectos de las TIC en la opinión pública
Las nuevas tecnologías de la Información y la Comunicación están influyendo
notoriamente en los procesos de creación y cambio de las corrientes de opinión pública.
Objetos tan habituales como la televisión, el móvil y el ordenador, además de la radio,
están constantemente transmitiendo mensajes, intentando llevar a su terreno a los
oyentes, telespectadores o usuarios de estos medios. A través de mensajes de texto,
correos electrónicos, blogs, y otros espacios dentro de internet, las personas se dejan
influir sin apenas ser conscientes de ello, afirmando que creen esa versión porque «lo
han dicho los medios» o «viene en internet». Estos son la vía de la verdad para muchos
de los ciudadanos, sin saber que en ellos también se miente y manipula. Dependiendo
de la edad, status social, nivel de educación y estudios, así como de vida, trabajo y
costumbres, las TIC tienen un mayor impacto o menos, se da más un tipo de opinión u
otra y diferentes formas de cambiarla.
Aparte, también se forma la opinión pública en función de los intereses de los medios y
otros agentes importantes en el ámbito de las TIC. Aquí se encuadran diferentes teorías,
muy relevantes y conocidas todas ellas, de las que destacaremos dos: la Teoría de la
espiral del silencio (Elisabeth Noëlle Neumann: «La espiral del silencio»[71] y la de las
agendas de los medios. Cuando una persona se encuentra dentro de un debate o un
círculo de personas, no expresará su opinión si sólo coincide con la de la minoría, por lo
que su visión quedaría silenciada. También suele pasar que aunque intente hacerse oír,
la otra visión es seguida por tanta gente que no se escuchará la de esa persona o grupo
minoritario. La teoría de la agenda setting, o agenda de los medios se refiere a los temas
que eligen los medios que sean de relevancia pública y sobre los que se tiene que
opinar, en función de sus intereses. Así vemos que los medios son como cualquier
persona física que mira sólo por su propio bien, y en función de esto, en el mundo se le
dará visibilidad a una cosa u a otra.
Efectivamente, como menciona numerosos autores como Orlando J. D'Adamo en su
obra "Medios de Comunicación y Opinión Pública",[72] los medios son el cuarto poder.
A través de ellos se forma y modifica la opinión pública en la era de la electrónica. Las
nuevas tecnologías, más allá de democratizar su uso, la divulgación de la cultura, y
ofrecer información para que los habitantes del planeta estén informados, tienen la
capacidad de adormecer y movilizar grupos sociales por medio de esta comunicación de
masas en las que se concretan las diferentes corrientes de opinión a través de personajes
mediáticos y bien visibles.
Apertura de los países a las TIC
Cada año, el Foro Económico Mundial publica el índice del estado de las redes
(Networked Readiness Index), un índice definido en función del lugar, el uso y el
beneficio que puede extraer un país de las Tecnologías de la información y de las
comunicaciones. Este índice tiene en cuenta más de un centenar de países (122 en 20062007) y permite establecer una clasificación mundial.[
MODEM
Un módem es un dispositivo que sirve para enviar una señal llamada moduladora
mediante otra señal llamada portadora. Se han usado módems desde los años 60,
principalmente debido a que la transmisión directa de las señales electrónicas
inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de
audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de metros)
para su correcta recepción. Es habitual encontrar en muchos módems de red conmutada
la facilidad de respuesta y marcación automática, que les permiten conectarse cuando
reciben una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la
marcación de cualquier número previamente grabado por el usuario. Gracias a estas
funciones se pueden realizar automáticamente todas las operaciones de establecimiento
de la comunicación.
Cómo funciona
El modulador emite una señal denominada portadora. Generalmente, se trata de una
simple señal eléctrica sinusoidal de mucha mayor frecuencia que la señal moduladora.
La señal moduladora constituye la información que se prepara para una transmisión (un
módem prepara la información para ser transmitida, pero no realiza la transmisión). La
moduladora modifica alguna característica de la portadora (que es la acción de
modular), de manera que se obtiene una señal, que incluye la información de la
moduladora. Así el demodulador puede recuperar la señal moduladora original,
quitando la portadora. Las características que se pueden modificar de la señal portadora
son:



Amplitud, dando lugar a una modulación de amplitud (AM/ASK).
Frecuencia, dando lugar a una modulación de frecuencia (FM/FSK).
Fase, dando lugar a una modulación de fase (PM/PSK)
También es posible una combinación de modulaciones o modulaciones más complejas
como la modulación de amplitud en cuadratura.
Módems para PC
Módem antiguo (1994) externo.
La distinción principal que se suele hacer es entre módems internos y módems
externos, aunque recientemente han aparecido módems llamados "módems software",
más conocidos como "winmódems" o "linuxmódems", que han complicado un poco el
panorama. También existen los módems para XDSL, RDSI, etc. y los que se usan para
conectarse a través de cable coaxial de 75 ohms (cable modems).

Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los
diferentes componentes que forman el módem. Existen para diversos tipos de
conector:
o Bus ISA: debido a las bajas velocidades que se manejan en estos aparatos,
durante muchos años se utilizó en exclusiva este conector, hoy en día en
desuso (obsoleto).
o Bus PCI: el formato más común en la actualidad, todavía en uso.
o AMR: en algunas placas; económicos pero poco recomendables por su bajo
rendimiento. Hoy es una tecnología obsoleta.
La principal ventaja de estos módems reside en su mayor integración con el
ordenador, ya que no ocupan espacio sobre la mesa y reciben energía eléctrica
directamente del propio ordenador. Además, suelen ser algo más baratos debido a
que carecen de carcasa y transformador, especialmente si son PCI (en este caso, son
casi todos del tipo "módem software"). Por el contrario, son algo más complejos de
instalar y la información sobre su estado sólo puede obtenerse por software.

Externos: similares a los anteriores, pero externos al ordenador o PDA. La ventaja de
estos módems reside en su fácil portabilidad entre ordenadores diferentes (algunos de
ellos más fácilmente transportables y pequeños que otros), además de que es posible
saber el estado del módem (marcando, con/sin línea, transmitiendo...) mediante los
leds de estado que incorporan. Por el contrario, y obviamente, ocupan más espacio
que los internos.
Tipos de conexión

o
o
o

La conexión de los módems telefónicos externos con el ordenador se realiza
generalmente mediante uno de los puertos serie tradicionales o COM (RS232),
por lo que se usa la UART del ordenador, que deberá ser capaz de
proporcionar la suficiente velocidad de comunicación. La UART debe ser de
16550 o superior para que el rendimiento de un módem de 28.800 bps o más
sea el adecuado. Estos módems necesitan un enchufe para su transformador.
Módems PC Card: son módems en forma de tarjeta, que se utilizaban en
portátiles, antes de la llegada del USB (PCMCIA). Su tamaño es similar al de
una tarjeta de crédito algo más gruesa, pero sus capacidades son las mismas
que los modelos estándares.
Existen modelos para puerto USB, de conexión y configuración aún más
sencillas, que no necesitan toma de corriente. Hay modelos tanto para
conexión mediante telefonía fija, como para telefonía móvil.
Módems software, HSP (Host Signal Processor) o Winmódems: son módems
generalmente internos, en los cuales se han eliminado varias piezas electrónicas (por
ejemplo, chips especializados), de manera que el microprocesador del ordenador debe
suplir su función mediante un programa. Lo normal es que utilicen como conexión una
ranura PCI (o una AMR), aunque no todos los módems PCI son de este tipo. El uso de la
CPU entorpece el funcionamiento del resto de aplicaciones del usuario. Además, la
necesidad de disponer del programa puede imposibilitar su uso con sistemas
operativos no soportados por el fabricante, de manera que, por ejemplo, si el
fabricante desaparece, el módem quedaría eventualmente inutilizado ante una futura
actualización del sistema. A pesar de su bajo coste, resultan poco o nada
recomendables.

Módems completos: los módems clásicos no HSP, bien sean internos o externos. En
ellos, el rendimiento depende casi exclusivamente de la velocidad del módem y de la
UART del ordenador, no del microprocesador.
Módems telefónicos
Su uso más común y conocido es en transmisiones de datos por vía telefónica.
Las computadoras procesan datos de forma digital; sin embargo, las líneas telefónicas
de la red básica sólo transmiten señales analógicas.
Los métodos de modulación y otras características de los módems telefónicos están
estandarizados por el UIT-T (el antiguo CCITT) en la serie de Recomendaciones "V".
Estas Recomendaciones también determinan la velocidad de transmisión. Destacan:








V.21. Comunicación Full-Duplex entre dos módems analógicos realizando una
variación en la frecuencia de la portadora de un rango de 300 baudios, logrando una
transferencia de hasta 300 bps (bits por segundo).
V.22. Comunicación Full-Duplex entre dos módems analógicos utilizando una
modulación PSK de 600 baudios para lograr una transferencia de datos de hasta 600 o
1200 bps.
V.32. Transmisión a 9.600 bps.
V.32bis. Transmisión a 14.400 bps.
V.34. Estándar de módem que permite hasta 28,8 Kbps de transferencia de datos
bidireccionales (full-duplex), utilizando modulación en PSK.
V.34bis. Módem construido bajo el estándar V34, pero permite una transferencia de
datos bidireccionales de 33,6 Kbps, utilizando la misma modulación en PSK. (estándar
aprobado en febrero de 1998)
V.90. Transmisión a 56,6 kbps de descarga y hasta 33.600 bps de subida.
V.92. Mejora sobre V.90 con compresión de datos y llamada en espera. La velocidad
de subida se incrementa, pero sigue sin igualar a la de descarga.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de
frecuencias situado por encima de la banda vocal (300 - 3.400 Hz) en líneas telefónicas
o por encima de los 80 KHz ocupados en las líneas RDSI, y permiten alcanzar
velocidades mucho mayores que un módem telefónico convencional. También poseen
otras cualidades, como es la posibilidad de establecer una comunicación telefónica por
voz al mismo tiempo que se envían y reciben datos.
Tipos de modulación
Dependiendo de si el módem es digital o analógico se usa una modulación de la misma
naturaleza. Para una modulación digital se tienen, por ejemplo, los siguientes tipos de
modulación:



ASK, (Amplitude Shift Keying, Modulación en Amplitud): la amplitud de la portadora se
modula a niveles correspondientes a los dígitos binarios de entrada 1 ó 0.
FSK, (Frecuency Shift Keying, Modulación por Desplazamiento de Frecuencia): la
frecuencia portadora se modula sumándole o restándole una frecuencia de
desplazamiento que representa los dígitos binarios 1 ó 0. Es el tipo de modulación
común en modems de baja velocidad en la que los dos estados de la señal binaria se
transmiten como dos frecuencias distintas.
PSK, (Phase Shift Keying, Modulación de Fase): tipo de modulación donde la portadora
transmitida se desplaza cierto número de grados en respuesta a la configuración de los
datos. Los módems bifásicos por ejemplo, emplean desplazamientos de 180º para
representar el dígito binario 0.
Pero en el canal telefónico también existen perturbaciones que el módem debe enfrentar
para poder transmitir la información. Estos trastornos se pueden enumerar en:
distorsiones, deformaciones y ecos. Ruidos aleatorios e impulsivos. Y por último las
interferencias.
Para una modulación analógica se tienen, por ejemplo, los siguientes tipos de
modulación:

AM Amplitud Modulada: la amplitud de la portadora se varía por medio de la amplitud
de la moduladora.

FM Frecuencia Modulada: la frecuencia de la portadora se varía por medio de la
amplitud de la moduladora.

PM Phase Modulation. Modulación de fase: en este caso el parámetro que se varía de
la portadora es la fase de la señal, matemáticamente es casi idéntica a la modulación
en frecuencia. Igualmente que en AM y FM, es la amplitud de la moduladora lo que se
emplea para afectar a la portadora.
Órdenes AT
Órdenes de comunicación

ATA: con esta orden el módem queda en espera de una llamada telefónica,
comportándose como un receptor (autoanswer).
Cada módem utiliza una serie de órdenes "AT" comunes y otras específicas. Por ello, se
deberá hacer uso de los manuales que acompañan al módem para configurarlo
adecuadamente. Donde cada uno de los modems son aplicados
Registros
Los registros o registros S son porciones de memoria donde se pueden guardar
permanentemente parámetros que definen el perfil del módem (profiles). Además de las
órdenes "AT", se dispone de esta serie de registros que permiten al usuario la
modificación de otras características de su funcionamiento. Al igual que ocurre con las
órdenes "AT", existen registros comunes y otros específicos del módem. Se enumeraran
los más comunes.
Registro 0: número de llamadas que el módem espera antes de responder (autoanswer).
Si su valor es 0, el módem nunca responderá a las llamadas.
Registro 1: contabilizador de llamadas realizadas / recibidas.
Registro 2: código del carácter que se utiliza para activar la secuencia de escape. Suele
ser un +.
Registro 3: código del carácter de fin de línea. Suele ser un 13 (enter).
Registro 4: código de carácter de avance de línea, (line feed).
Registro 5: código de carácter de borrado con retroceso (backspace).
Registro 6: tiempo de espera antes de empezar a marcar (s).
Registro 7: tiempo de espera para recibir portadora (s).
Registro 8: tiempo asignado a la pausa del Hayes (la coma en s).
Registro 9: tiempo de respuesta a la detección de portadora, para activar la DCD (en
décimas de segundo).
Registro 10: tiempo máximo de pérdida de portadora para cortar la línea. Aumentando
su valor permite al remoto cortar temporalmente la conexión sin que el módem local
inicie la secuencia de desconexión. Si es 255, se asume que siempre hay portadora. Este
tiempo debe ser mayor que el del registro 9 (en décimas de segundo).
Registro 12: determina el guard time; éste es el tiempo mínimo que precede y sigue a un
código de escape (+++), sin que se hayan transmitido o recibido datos. Si es 0, no hay
límite de tiempo (S12 x 20 ms).
Registro 18: contiene la duración de los tests.
Registro 25: tiempo para que el módem considere que la señal de DTR ha cambiado.
Registro 26: tiempo de respuesta de la señal CTS ante RTS.
Perfiles de funcionamiento
Existen 3 tipos de perfil para funcionamiento de los módems:
1. El de fábrica, (por defecto).
2. El activo.
3. El del usuario.
Estos perfiles están guardados en su memoria RAM no volátil y el perfil de fabrica está
guardado en ROM.
Hay dos opciones o lugares de memoria donde se pueden grabar los perfiles
1. AT&Y0, (al encender se carga el perfil = 0)
2. AT&Y1, (al encender se carga el perfil = 1)
Estas órdenes se envían antes de apagar el módem para que los cargue en su próximo
encendido.
Cuando se escriben las órdenes "AT", dependiendo del tamaño del buffer del módem, se
pueden ir concatenando sin necesidad de escribir para cada uno de ellos el prefijo "AT".
De esta forma, por ejemplo cuando en un programa se pide una secuencia de
inicialización del módem, se puede incluir conjuntamente en una sola línea todos las
órdenes necesarias para configurar el módem.
A continuación se describen los procesos que se llevan a cabo para establecer una
comunicación a través del módem:
Pasos para establecer una comunicación.
1) Detección del tono de línea. El módem dispone de un detector del tono de línea. Este
se activa si dicho tono permanece por más de un segundo. De no ser así, sea por que ha
pasado un segundo sin detectar nada o no se ha mantenido activado ese tiempo el tono,
envía a la computadora el mensaje "NO DIALTONE".
2) Marcación del número. Si no se indica el modo de llamada, primero se intenta llamar
con tonos y si el detector de tonos sigue activo, se pasa a llamar con pulsos. En el
período entre cada dígito del número telefónico, el IDP (Interdigit pulse), se continua
atendiendo al detector de tono. Si en algún IDP el detector se activa, la llamada se
termina y se retorna un mensaje de BUSY. Una vez terminada la marcación, se vuelve a
atender al detector de tono para comprobar si hay conexión. En este caso pueden
suceder varias cosas:



Rings de espera. Se detectan y contabilizan los rings que se reciban, y se comparan con
el registro S1 del módem. Si se excede del valor allí contenido se retorna al mensaje
"NO ANSWER".
Si hay respuesta se activa un detector de voz/señal, la detección de la respuesta del
otro módem se realiza a través del filtro de banda alta (al menos debe estar activo 2
segundos).
Si el detector de tono fluctúa en un período de 2 segundos se retorna el mensaje
"VOICE". El mensaje "NO ANSWER" puede obtenerse si se produce un intervalo de
silencio después de la llamada.
3) Establecer el enlace. Implica una secuencia de procesos que dependen si se está
llamando o si se recibe la llamada.
Si se está llamando será:







Fijar la recepción de datos a 1.
Seleccionar el modo de baja velocidad.
Activar 0'6 segundos el tono de llamada y esperar señal de línea.
Desactivar señal de tono
Seleccionar modo de alta velocidad.
Esperar a recibir unos, después transmitir unos y activar la transmisión
Analizar los datos recibidos para comprobar que hay conexión. Si ésta no se consigue
en el tiempo límite fijado en el registro S7, se da el mensaje "NO CARRIER"; en caso
contrario, se dejan de enviar unos, se activa la señal de conexión, se desbloquea la
recepción de datos y se da el mensaje "CARRIER".
Si se está recibiendo será:






Selección del modo respuesta.
Desactivar el scrambler.
Seleccionar el modo de baja velocidad y activar el tono de respuesta (p. ej. 2.400 Hz
durante 3'3 s).
Desactivar el transmisor.
Esperar portadora, si no se recibe activar el transmisor, el modo de alta velocidad y el
tono a 1.800 Hz.
Esperar el tiempo indicado en S7, si no hay conexión envía el mensaje "NO CARRIER",
si la hay, indica "CONNECT", se activa el transmisor, el detector de portadora y la señal
de conexión.
En resumen los pasos para establecimiento de una conexión son:
1. La terminal levanta la línea DTR.
2. Se envía desde la terminal la orden ATDT 5551234 ("AT" -> atención, D -> marcar, T ->
por tonos, 5551234 -> número a llamar.)
3. El módem levanta la línea y marca el número.
4. El módem realiza el hand shaking con el módem remoto.
5. El programa de comunicación espera el código de resultado.
6. Código de resultado "CONNECT".
Test en módems Hayes
Los tests permiten verificar el módem local, la terminal local, el módem remoto y la
línea de comunicaciones. Con el registro del módem S18 se indica el tiempo de
duración de los tests. Si su contenido es 0, no hay límite de tiempo y es el usuario el que
debe finalizar las pruebas con la orden AT&T0. El módem al encenderse realiza una
serie de exámenes internos. En caso de surgir algún error, se le indicará al DTE
oportunamente.
Los tests que pueden realizarse son:

Local analog loopback (bucle local analógico): se ejecuta con &T1. Comprueba la
conexión entre el módem y el terminal local. Tras introducir AT&T1, pasados unos
segundos, se entra en modo on line. Para realizar el test debe estar activado el eco
local. La ejecución correcta del test implica que todo carácter digitado por el usuario
aparecerá duplicado. Para terminar el test, se pulsa la secuencia de escape y después
AT&T0. Si el test se inicia estando ya conectado a un servicio, esta conexión se corta.

Local Digital Loopback (bucle local digital): se ejecuta con &T3. Solo puede realizarse
durante una conexión con un módem remoto. Comprueba la conexión entre el módem
local y el remoto, y el circuito de línea. Envía al módem remoto las cadenas que reciba
de él.

Remote Digital Loopback (bucle digital remoto): se ejecuta con &T6. Comprueba el
terminal local, el módem local, el módem remoto y el circuito de línea. Debe realizarse
durante una conexión, y el módem remoto puede o debe aceptar la petición del test.
Para finalizarlo se pasa a modo de órdenes con la secuencia de escape y se teclea
AT&T0. El terminal local compara la cadena recibida con la transmitida por él
previamente. Las cadenas son proporcionadas por el usuario.

Remote Digital Loopback with Selftest (bucle digital remoto con autotest): se ejecuta
con &T7. Comprueba el módem local, el remoto, y el circuito de línea. Debe realizarse
durante una conexión y para finalizarlo hay que indicar la secuencia de escape y
AT&T0. Se genera un patrón binario, según la recomendación V.54 del CCITT, para
comprobar la conexión. Al finalizar el test se indica el número de errores aparecidos,
(de 000 a 255).

Local Analog Loopback with Selftest (bucle analógico local con autotest): se ejecuta
con &T8. Comprueba el módem local. Tras iniciarse el test, pasados unos segundos, se
retorna al modo de órdenes. Se finaliza con &T0 o si se alcanza el tiempo límite
definido en S18. El test comprueba los circuitos de transmisión y recepción del
módem. Se utiliza un patrón binario, según la recomendación CCITT V.54. Si está
conectado con algún servicio, la conexión se corta. Al finalizar el test se retorna el
número de errores, (000 a 255).
Protocolos de comprobación de errores
El control de errores: son varias técnicas mediante las cuales se chequea la fiabilidad de
los bloques de datos o de los caracteres.

Paridad: función donde el transmisor añade otro bit a los que codifican un símbolo. Es
paridad par, cuando el símbolo tenga un número par de bits y es impar en caso
contrario. El receptor recalcula el número de par de bits con valor uno, y si el valor
recalculado coincide con el bit de paridad enviado, acepta el paquete. De esta forma
se detectan errores de un solo bit en los símbolos transmitidos, pero no errores
múltiples.

CRC: (Cyclic Redundancy Check, prueba de redundancia cíclica). Esta técnica de
detección de error consiste en un algoritmo cíclico en el cual cada bloque o trama de
datos es chequeada por el módem que envía y por el que recibe. El módem que está
enviando inserta el resultado de su cálculo en cada bloque en forma de código CRC.
Por su parte, el módem que está recibiendo compara el resultado con el código CRC
recibido y responde con un reconocimiento positivo o negativo dependiendo del
resultado.

MNP: (Microcom Networking Protocol, protocolo de red Microcom). Es un control de
error desarrollado por Microcom, Inc. Este protocolo asegura transmisiones libres de
error por medio de una detección de error, (CRC) y retransmisión de tramas
equivocadas.
Protocolos de transferencia de archivos

Xmodem: es el protocolo más popular, pero lentamente está siendo reemplazado por
protocolos más fiables y más rápidos. Xmodem envía archivos en bloques de 128
caracteres al mismo tiempo. Cuando el computador que está recibiendo comprueba
que el bloque ha llegado intacto, lo señala así y espera el bloque siguiente. El chequeo
de error es un checksum o un chequeo más sofisticado de redundancia cíclica. Algunas
comunicaciones por software soportan ambas y podrían automáticamente usar la más
indicada para un momento dado. Durante una descarga, el software tiende a usar el
CRC, pero se cambiará a checksum si se detecta que el host no soporta el CRC. El
protocolo de Xmodem también necesita tener declarado en su configuración: no
paridad, ocho bits de datos y un bit de parada.

Xmodem-1k: es una pequeña variante del anteriormente mencionado, que usa
bloques que posen un kilobyte (1.024 bytes) de tamaño. Este protocolo es todavía mal
llamado ‘Ymodem’ por algunos programas, pero la gente gradualmente se inclina a
llamarlo correctamente.

Xmodem-1k-g: es una variante del anterior para canales libres de error tales como
corrección de errores por hardware o líneas de cable null-módem entre dos
computadoras. Logra mayor velocidad enviando bloques uno tras otro sin tener que
esperar el reconocimiento desde el receptor. Sin embargo, no puede retransmitir los
bloques en caso de errores. En caso de que un error sea detectado en el receptor, la
transferencia será abortada. Al igual que el anterior, muchas veces es mal llamado
‘Ymodem-g’.

Zmodem: este avanzado protocolo es muy rápido al igual que garantiza una buena
fiabilidad y ofrece varias características. Zmodem usa paquetes de 1 kb en una línea
limpia, pero puede reducir el tamaño del paquete según si la calidad de la línea va
deteriorándose. Una vez que la calidad de la línea es recuperada el tamaño del
paquete se incrementa nuevamente. Zmodem puede transferir un grupo de archivos
en un lote (batch) y guardar exactamente el tamaño y la fecha de los archivos.
También puede detectar y recuperar rápidamente errores, y puede resumir e
interrumpir transferencias en un período más tarde. Igualmente es muy bueno para
enlaces satelitales y redes de paquetes conmutadas.

ASCII: en una transferencia ASCII, es como que si el que envía estuviera actualmente
digitando los caracteres y el receptor grabándolos ahora. No se utiliza ninguna forma
de detección de error. Usualmente, solo los archivos ASCII pueden ser enviados de
esta forma, es decir, como archivos binarios que contienen caracteres.

Ymodem: este protocolo es una variante del Xmodem, el cual permite que múltiples
archivos sean enviados en una transferencia. A lo largo de ella, se guarda el nombre
correcto, tamaño, y fecha del archivo. Puede usar 128 o (más comúnmente), 1.024
bytes para los bloques.

Ymodem-g: este protocolo es una variante del anterior, el cual alcanza una tasa de
transferencia muy alta, enviando bloques uno tras otro sin esperar por un
reconocimiento. Esto, sin embargo, significa que si un error es detectado por el
receptor, la transferencia será abortada.

Telink: este protocolo es principalmente encontrado en Fido Bulletin Board Systems.
Es básicamente el protocolo Xmodem usando CRC para chequear y un bloque extra
enviado como cabecera del archivo diciendo su nombre, tamaño y fecha. Por su parte,
también permite que más de un archivo sea enviado al mismo tiempo (Fido es una BBS
muy popular, que es usada en todo el mundo).

Kermit: este protocolo fue desarrollado para hacer más fácil que los diferentes tipos
de computadoras intercambiasen archivos entre ellas. Casi ninguna computadora que
usa Kermit puede ser configurada para enviar archivos a otra computadora que
también use Kermit. Kermit usa pequeños paquetes (usualmente de 94 bytes) y
aunque es fiable, es lento porque la relación del protocolo de datos para usarlos es
más alta que en muchos otros protocolos
HISTORIA DEL MONITOR
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA
(Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de
IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado,
negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año
salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron
comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar
CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por
comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de
graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos,
este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el
estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar
muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos
problemas que surgieron, desarrollando así SVGA (Super VGA), que también
aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas
gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI
entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían
estando en la mayoría de hogares donde había un ordenador.
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias categorías. Todos han
ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y
mejorar la calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés
“Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de
IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo
ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde.
El mismo creaba irritación en los ojos de sus usuarios.
Características:






Sin modo gráfico.
Resolución 720_350 píxeles.
Soporte de texto monocromático.
No soporta gráfico ni colores.
La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Los monitores CGA por sus siglas en inglés
“Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de
monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera
tarjeta gráfica conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando
por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo
competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.
Características:




Resoluciones 160_200, 320×200, 640×200 píxeles.
Soporte de gráfico a color.
Diseñado principalmente para juegos de computadoras.
La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics
Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en
1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería
sustituido por un monitor de mayores características.
Características:



Resolución de 640_350 píxeles.
Soporte para 16 colores.
La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Los monitores VGA por sus siglas en inglés
“Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los
monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA
incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los
monitores anteriores no son compatibles a los VGA, estos incorporan señales
analógicas.
Características:




Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con 16 colores.
Soporte de 320×200 píxeles en modo gráfico con 256 colores.
Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA denominado por sus siglas en inglés
“Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de
monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear
nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA.
Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.
Características:


Resolución de 800×600, 1024_768 píxeles y superiores.
Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas
como: ATI, GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos.
Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de
energía, tamaño y por brindar un nuevo producto en el mercado.
Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en
inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl
Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad
que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad
también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la
pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo
instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no
tendrá representando un píxel negro. Una amplitud máxima determina que ese punto
tendrá el máximo brillo.
Ventajas:




Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.
Desventajas:





Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y magnéticas.
Alto peso y tamaño.
Pantallas LCD:
A este tipo de tecnología se le conoce por el
nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal
Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por
Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre
otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las
propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente
que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un
cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente
eléctrica que cambie su polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente
de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el
color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo,
verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles
de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje
que se aplica a los filtros.
Ventajas:






Poco peso y tamaño.
Buena calidad de colores.
No contiene parpadeo.
Poco consume de energía.
Poca generación de calor.
No genera radiaciones eléctricas y magnéticas.
Desventajas:

Alto costo.




Angulo limitado de visibilidad.
Brillo limitado.
Bajo tiempo de respuesta de píxeles.
Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la
Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la
pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se
encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas
luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma
funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un
pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda
estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una
diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de
plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material
fosforescente que recubre el interior de la celda. Cuando el material fosforescente
regresa a su estado energético natural, emite luz visible.
Ventajas:





Excelente brillo.
Alta resolución.
Amplio ángulo de visión.
No contiene mercurio.
Tamaño de pantalla elevado.
Desventajas:





Vida útil corta.
Coste de fabricación elevado, superior a los LCD.
Consumo de electricidad elevado.
Poca pureza del color.
Consumo energético y emisión de calor elevada.
HISTORIA DEL TECLADO
Disposición de las teclas
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales
eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño
martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al
escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su
posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la
pulsación era más lenta con el fin de que los martillos se atascaran con menor
frecuencia[cita requerida].
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales:
la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la
disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados
en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de
acento agudo ( ´ ), grave ( ` ), la diérisis( ¨ ) y circunflejo ( ^ ), además de la cedilla ( Ç )
aunque estos caracteres son de mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con
sus teclados también eléctricos, se consideró seriamente modificar la distribución de las
letras en los teclados, colocando las letras más corrientes en la zona central; es el caso
del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes
preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al
temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo
teclado, y que ello perjudicara la introducción de las computadoras personales, que por
aquel entonces se encontraban en pleno auge.
Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos
Primeros teclados
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los
primeros teclados solían ser un terminal de computadora que se comunicaba por puerto
serial con la computadora. Además de las normas de teletipo, se designó un estándar de
comunicación serie, según el tiempo de uso basado en el juego de caracteres ANSI, que
hoy sigue presente en las comunicaciones por módem y con impresora (las primeras
computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en
su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se
usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas,
o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de teclados y de
tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la
fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos
incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el
chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son
casos contados los que recurren o soportan comunicación serial (curiosamente es la
tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los
MSX establecerán una norma sobre el teclado, y los diferentes clones del TRS-80
seguirán el diseño del clonado.
Generación 16 bits
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo
influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de
101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con
cuatro bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada
lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de
10 o 12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes
bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes
este será el esquema usado por los Atari ST, los Commodore Amiga (desde el
Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon
Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema
bloque alfanumérico + bloque numérico, pero también producen teclados extendidos
AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de
"indestructibles", pues tras más de 10 años de uso continuo en entornos como las
aseguradoras o la administración pública seguían funcionando como el primer día.
[cita requerida]
Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a
incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de
calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard,
añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los
teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de
CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla
sensible al tacto o bola trazadora
Teclados con USB
Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es
con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie
cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de
hacerlo independiente del hardware al que se conecta. El estándar define scancodes de
16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo,
llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del
224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl,
RShift, RAlt, RGUI)
Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos
lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación
de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en
los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras
del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su
variante latinoamericana son teclados QWERTY que se diferencian del inglés por
presentar la letra "ñ" y "Ñ" en su distribución de teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando
ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el
Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos:
mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior
izquierda de una tecla, se emplea la tecla mayúsculas, etiquetada como "↑". Para teclear
un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla
Alt-Gr.
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres
acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas
inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al
acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar
la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una
secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´ ) seguido
de la letra A , obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla
inerte y a continuación la tecla T , no aparecerá nada en la pantalla o aparecerán los dos
caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la
"t" acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del
acento, seguida de la barra de espacio.
Tipos de teclado
Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha
soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y
no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT
IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un
conector DIN de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT.
Sus características son que usa la misma interfaz que el AT, añade muchas teclas más,
se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay
dos versiones, la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el
conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la
comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el
mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados teclados
virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla,
que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos
teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente
un teclado físico.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran
diversidad de ellos.
Estructura
Un teclado realiza sus funciones mediante un micro controlador. Estos micro
controladores tienen un programa instalado para su funcionamiento, estos mismos
programas son ejecutados y realizan la exploración matricial de las teclas cuando se
presiona alguna, y así determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su
carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de
ellas que sólo tiene que ver con su posición física. El teclado latinoamericano sólo da
soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos
tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de
combinaciones de acentos se obtienen usando una tecla de extensión de grafismos. Por
lo demás el teclado latinoamericano está orientado hacia la programación, con fácil
acceso al juego de símbolos de la norma ASCII.
Por cada pulsación o liberación de una tecla el micro controlador envía un código
identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas
simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y
cuando dicha tecla se libera. Si el micro controlador nota que ha cesado la pulsación de
la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación
incrementado en 128. Estos códigos son enviados al circuito micro controlador donde
serán tratados gracias al administrador de teclado, que no es más que un programa de la
BIOS y que determina qué carácter le corresponde a la tecla pulsada comparándolo con
una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y
enviando los datos al procesador. El micro controlador también posee cierto espacio de
memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de
que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en
cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la
señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la
señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de
compatibilidad es necesario traducirlos. De esta función se encarga el controlador de
teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC.
Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el
propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El
protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle
comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc.
Disposición del teclado
Artículo principal: Distribución del teclado
La disposición del teclado es la distribución de las teclas del teclado de una
computadora, una máquina de escribir u otro dispositivo similar.
Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes.
El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación
de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se
han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por
ejemplo el Teclado Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios
idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el
sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales
desde el Panel de Control.
Existen programas como Microsoft Keyboard Layout Creator1 y KbdEdit,2 que hacen
muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades
particulares de un usuario, ya para resolver problemas que afectan a todo un grupo
lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente
existentes (como el teclado latinoamericano extendido3 o el gaélico4 ), o pueden ser
enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,5 o el
panibérico6 ).
A primera vista en un teclado podemos notar una división de teclas, tanto por la
diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para
distinguirse de las demás por ser teclas especiales (borrado, teclas de función,
tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están
agrupadas en cuatro grupos:




Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras
teclas, nos proporcionan acceso directo a algunas funciones del programa en
ejecución.
Teclas de edición: sirven para mover el cursor por la pantalla.
Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados
QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este
nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban
organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar
combinaciones llegaron a la conclusión de que así es como menos problemas daban. A
pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y
sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con
la mayoría de los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema
decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla
especial Bloq Num, que sirve para cambiar el valor de algunas teclas para pasar de
valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico
también es similar al de un calculadora cuenta con las 4 operaciones básicas que son +
(suma), - (resta), * (multiplicación) y / (división).
Clasificación de teclados de computadoras
En el mercado hay una gran variedad de teclados. Según su forma física:








Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
Teclado AT de 83 teclas: usado con los PC AT (286/386).
Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de
teclas.
Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para
uso en Windows.
Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario,
ayudándole a tener una posición más relajada de los brazos.
Teclado multimedia: añade teclas especiales que llaman a algunos programas en el
computador, a modo de acceso directo, como pueden ser el programa de correo
electrónico, la calculadora, el reproductor multimedia, etc.
Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el
computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o
mediante bluetooth.
Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar
sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies
irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos
también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes.
Algunos modelos pueden ser completamente sumergidos en agua, por lo que
hospitales y laboratorios los usan, ya que pueden ser desinfectados.7
Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma,
teclados de membrana: teclados capacitativos y teclados de contacto metálico.