Download arquitectura de Von Neumann

Document related concepts
no text concepts found
Transcript
Universidad Central de Venezuela
Facultad de Ciencias Económicas y Sociales
Escuela de Estadística y Ciencias Actuariales
Dpto. Informática
Cátedra: Computación
Computación I
Autor (a): Hidalgo Yoedry
CI: 17427408
Caracas , Noviembre 2010
Origen del Computador
La primera máquina de calcular mecánica , un precursor del ordenador digital, fue inventada
en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de
ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9.
Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas
avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried
Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea
de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos.
Hollerith consiguió compilar la información estadística destinada al censo de población de
1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas
perforadas sobre contactos eléctricos.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del
ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y
tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han
abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han
permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales
prácticamente en todos los campos de investigación y en tecnología aplicada.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Muchos historiadores consideran a Babbage y a su socia, la matemática británica
Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos
inventores de la computadora digital moderna.
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados
conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las
características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una
memoria para guardar los datos, un procesador para las operaciones matemáticas y una
impresora para hacer permanente el registro.
Los primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con
estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado
difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras
mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más
tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el
manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus.Hacia diciembre de 1943 el
Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado
por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de
los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford
Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College
(EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y
más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico
electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El
ENIAC, que según se demostró se basaba en gran medida en el ordenador AtanasoffBerry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en
1973, varias décadas más tarde.
La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz
de procesar información numérica y textual. Diseñada por J. Presper Eckeret y John
Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó
el inicio de la era informática. En la ilustración vemos una UNIVAC. La computadora central
está al fondo, y en primer plano puede verse al panel de control de supervisión. Remington
Rand entregó su primera UNIVAC a la Oficina del Censo de Estados Unidos en 1951.
El eniac
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser
modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de
programa que estaba basado en los conceptos del matemático húngaro-estadounidense
John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo
que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel
durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al
ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el
advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían
las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una
vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más
perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación.
Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la
fabricación del sistema resultaba más barata.
Antecedentes (Cronología de los principales acontecimientos, eventos y/o hechos,
personas involucradas; que precedieron la aparición de los primeros
computadores bajo el modelo de Von Neuman):
•John Louis von Neumann (1903-1957) :
Este científico matemático ocupa un lugar privilegiado en la historia de la computación
debido a sus múltiples e importantísimos aportes a las computadoras de la primera
generación. Nació el 28 de Diciembre de 1903 en Budapest, Hungría, llegando a ser uno de los
más brillantes matemáticos de la era de la computación.
Von Neumann fue un niño prodigio que a la edad de 6 años podía dividir mentalmente cifras
de 8 dígitos. Recibió una temprana educación en su ciudad natal, bajo el tutelaje del
matemático M. Fekete conjuntamente con el cual publicó su primer trabajo a la edad de 18
años. En 1921 ingresó a la facultad de Química de la Universidad de Budapest pero decidió
continuar sus estudios en Berlin y Zurich, graduándose de Ingeniero Químico en 1925.
Inmediatamente después de graduado volvió a sus investigaciones y estudios de las
matemáticas de las cuales fue un apasionado, logrando un doctorado en 1928. Rápidamente
ganó una reputación como un excelente matemático y en 1930 fue invitado a visitar la
Universidad de Princeton (USA) y al ser fundado el Instituto de Estudios Avanzados en 1933,
Von Neumman fue elegido como uno de sus únicos 6 profesores matemáticos, actividad que
desempeñó hasta el resto de su vida.
A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el
mundo, tales como Harvard, Pensilvania, Princeton, Roma, Ámsterdam, etc. En 1956 fue
elegido miembro honorario de la Academia de Ciencias Exactas en Lima, Perú.
A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el
mundo, tales como Harvard, Pensilvania, Princeton, Roma, Ámsterdam, etc. En 1956 fue
elegido miembro honorario de la Academia de Ciencias Exactas en Lima, Perú.
Durante la segunda guerra mundial fueron aprovechados sus conocimientos en
hidrodinámica, balística, meteorología, teoría de juegos y estadísticas. En 1944 contribuyó en
forma directa en los diseños de fabricación de computadoras de esa generación, asesorando a
Eckert y John Machly, creadores de la ENIAC y que construyeran además la UNIVAC en 1950.
Durante esa década trabajó como consultor para la IBM colaborando con Howard Aikxen para
la construcción de la computadora Mark I de Harvard.
John Von Neumann falleció el 8 de Febrero de 1957 en Washington DC.
Von Neuman
Modelo o arquitectura de Von Neuman:
La arquitectura de von Neumann es una familia de arquitecturas de computadoras que
utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los
datos (a diferencia de la arquitectura Harvard).
Origen:
El nacimiento u origen de la arquitectura Von Neumann surge a raíz de una colaboración en el
proyecto ENIAC del matemático de origen húngaro, John Von Neumann. Este trabajaba en
1945 en el Laboratorio Nacional Los Álamos cuando se encontró con uno de los constructores
de la ENIAC. Compañero de Albert Einstein, Kurt Gödel y Alan Turing en Princeton, Von
Neumann se interesó por el problema de la necesidad de recablear la máquina para cada nueva
tarea.
En 1949 había encontrado y desarrollado la solución a este problema, consistente en poner la
información sobre las operaciones a realizar en la misma memoria utilizada para los datos,
escribiéndola de la misma forma, es decir en código binario. Su "EDVAC" fue el modelo de las
computadoras de este tipo construidas a continuación. Se habla desde entonces de la
arquitectura de Von Neumann, aunque también diseñó otras formas de construcción. El primer
computador comercial construido en esta forma fue el UNIVAC I, fabricado en 1951 por la
Sperry-Rand Corporation y comprado por la Oficina del Censo de Estados Unidos.
Organización
Los ordenadores con esta arquitectura constan de cinco partes: La unidad aritmético-lógica o
ALU, la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que
proporciona un medio de transporte de los datos entre las distintas partes.
Un ordenador con esta arquitectura realiza o emula los siguientes pasos
secuencialmente:
1. Enciende el ordenado y obtiene la siguiente instrucción desde la memoria en la dirección
indicada por el y la guarda en el registro de instrucción.
2. Aumenta el contador de programa en la longitud de la instrucción para apuntar a la
siguiente.
3. Decodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el
resto de componentes del ordenador para realizar una función determinada.
4. Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa,
permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se
cumpla una cierta condición aritmética, haciendo que el ordenador pueda 'tomar decisiones',
que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y lógica
anteriores.
5. Vuelve al paso 1.
Origen de término Arquitectura Von Neumann:
El término arquitectura de von Neumann se acuñó a partir del memorando First Draft of a Report
on the EDVAC (1945) escrito por el conocido matemático John von Neumann en el que se
proponía el concepto de programa almacenado. Dicho documento fue redactado en vistas a la
construcción del sucesor de la computadora ENIAC y su contenido fue desarrollado por John
Presper Eckert, John William Mauchly, Arthur Burksy otros durante varios meses antes de que
von Neumann redactara el borrador del informe. Es por ello que otros tecnólogos como David
A. Patterson y John L. Hennessy promueven la sustitución de este término por el de
arquitectura Eckert-Mauchly.
Desarrollo del concepto de programa almacenado
El matemático Alan Turing, quien había sido alertado de un problema de lógica matemática por
las lecciones de Max Newman en la Universidad de Cambridge, escribió un artículo en 1936
titulado “On Computable Numbers, with an Application to the Entscheidungs problem”, que
fue publicado en los “Proceedings of the London Mathematical Society”. En él describía una
máquina hipotética que llamó “máquina computadora universal”, y que ahora es conocida
como la “Máquina de Turing”. La máquina hipotética tenia un almacenamiento infinito
(memoria en la terminología actual) que contenía tanto las instrucciones como los datos. El
ingeniero alemán Konrad Zus escribió de forma independiente sobre este concepto en 1936.
Von Neumann conoció a Turing cuando ejercía de profesor sustituto en Cambridge en 1935 y
también durante el año que Turing pasó en la Universidad de Princeton en 1936-37. Cuándo
supo del artículo de 1936 de Turing no está claro.
Independientemente, J. Presper Eckert y John Mauchly, quienes estaban desarrollando el ENIAC
en la Escuela Moore de Ingeniería Eléctrica en la Universidad de Pennsylvania, escribieron sobre
el concepto de “programa almacenado” en diciembre de 1943. Mientras diseñaba una nueva
máquina, EDVAC, Eckert escribió en enero de 1944 que se almacenarían datos y programas en
un nuevo dispositivo de memoria direccionable, una línea de retardo de mercurio. Esta fue la
primera vez que se propuso la construcción de un programa almacenado práctico. Por esas
fechas, no tenían conocimiento del trabajo de Turing.
Von Neumann estaba involucrado en el Proyecto Manhattan en el Laboratorio Nacional Los
Alamos, el cual requería ingentes cantidades de cálculos. Esto le condujo al proyecto ENIAC, en
Verano de 1944. Allí se incorporó a los debates sobre el diseño de un ordenador con programas
almacenados, el EDVAC. Como parte del grupo, se ofreció voluntario a escribir una descripción
de él. El término “von Neumann architecture” surgió del primer artículo de von Neumann: “First
Draft of a Report on the EDVAC”, fechado el 30 de junio de 1945, el cual incluía ideas de Eckert y
Mauchly. Estaba inconcluso cuando su compañero Herman Goldstine lo hizo circular con solo el
nombre de von Neumann en él, para consternación de Eckert y Mauchly. El artículo fue leído por
docenas de compañero de trabajo de von Neumann en América y Europa, e influenció la
siguiente hornada de diseños de computadoras.
Posteriormente, Turing desarrolló un informe técnico detallado, “Proposed Electronic
Calculator”, describiendo el Motor de Computación Automático (Automatic Computing Engine,
ACE). Presentó éste al Laboratorio Nacional de Física Británico el 19 de febrero de 1946. A pesar
de que Turing sabía por su experiencia de guerra en el Parque Bletchley que su propuesta era
factible, el secretismo mantenido durante muchas décadas acerca de los ordenadores Colossus
le impidió manifestarlo. Varias implementaciones exitosas del diseño ACE fueron producidas.
Los trabajos de ambos, von Neumann y Turing, describían ordenadores de programas
almacenados, pero al ser anterior el artículo de von Neumann, consiguió mayor circulación y
repercusión, así que la arquitectura de computadoras que esbozó adquirió el nombre de
“arquitectura von Neumann”.
En 1945, el profesor Neumann que estaba trabajando en la escuela Moore de ingeniería de
Filadelfia, donde el ENIAC había sido construido, emitió en nombre de un grupo de sus
compañeros de trabajo un informe sobre el diseño lógico de los ordenadores digitales. El
informe contenía una propuesta muy detallada para el diseño de la máquina que desde entonces
se conoce como el EDVAC (electronic discrete variable automatic computer). Esta máquina ha
sido recientemente completada en América, pero el informe de Von Neumman inspiró la
construcción de la EDSAC (electronic delay-storage automatic calculator) en Cambridge.
En 1947, Burks, Goldstine y Von Neumann, publicaron un informe en el que describen el diseño
de otro tipo de máquina (una máqina paralela en este momento) que debería ser muy rápida,
capaz de hacer 20.000 operaciones por segundo. Señalaron que el problema persistente en la
construcción de tal máquina estaba en el desarrollo de una memoria adecuada, todos los
contenidos de los cuales fueron instantáneamente accesibles, y al principio se sugirió el uso de
un tubo especial -llamado Selectron- que había sido inventado por los laboratorios de Princeton
de la RCA. Estos tubos son caros y difíciles para fabricar, así Von Neumman decidió construir una
máquina basada en la memoria de Williams. Esa máquina que se completó en junio de 1952 en
Princeton se ha conocido como MANIAC I.
El diseño de esta máquina que ha sido inspirado de una docena o más de máquinas que están
actualmente en construcción en América.
Calculo automático en el laboratorio nacional de física. Uno de los equipos digitales más
modernos que incorpora novedades y mejoras en la técnica de la computación electrónica ha
sido demostrado en el laboratorio nacional de física, Teddington, donde ha sido diseñado y
construido por un pequeño equipo de matemáticos e ingenieros electrónicos investigadores
sobre el personal del laboratorio, asistido por ingenieros de producción de la compañía eléctrica
inglesa. El equipo construido hasta ahora en el laboratorio es solo el modelo piloto de muchas
instalaciones muy grandes que se va a conocer como el motor de cálculo automático, pero
aunque es relativamente pequeño en volumen y contiene solo 800 válvulas termoiónicas, es una
máquina de cálculo muy rápido y versátil. Los conceptos básicos y principios abstractos de la
computación por una máquina fueron formuladas por el Dr A. M. Turing, pero el trabajo en
dichas máquinas en el Reino Unido se retrasó por la guerra. In 1945, se ha hecho una
exanimación al problema en el laboratorio nacional de física por el profesor J. R. Womersley. Se
le adjuntó el Dr. Turing un pequeño equipo de especialistas, y en 1947 la planificación
preliminaria era lo suficientemente avanzada para justificar el establecimiento del grupo
especial ya mencionado. En abril de 1948, estos últimos se convirtieron en la sesión de la
electrónica del laboratorio bajo el cargo del Sr. F. M. Colebrook.
Descripción del concepto de programa almacenado:
Los primeros computadores constaban de programas almacenados. Algunos muy simples
siguen utilizando este diseño, por ejemplo, una calculadora es un computador que tiene un
programa almacenado. Puede hacer operaciones matemáticas simples, pero no puede ser
usada como procesador de textos o videoconsola.
Cambiar el programa que contenían los dispositivos que usaban esta tecnología requería
reescribir, reestructurar y/o rediseñar el dispositivo. Los primeros computadores no estaban lo
suficiente programados cuando fueron diseñados. La tarea de reprogramar, cuando era posible,
era un proceso laborioso, empezando con notas en papel y siguiendo con detallados diseños de
ingeniería. Y tras esto llegaba el a veces complicado proceso de reescritura y reestructuramiento
físico del computador.
El concepto de programa almacenado cambió por completo, se pensó en un computador que en
su diseño contenía un conjunto de instrucciones que podían ser almacenadas en memoria, o
sea, un programa que detallaba la computación del mismo.
El diseño de un programa almacenado también daba la posibilidad a los programas de ser
modificados ellos mismos durante su ejecución. Uno de los primeros motivos para su creación
fue la necesidad de un programa que incrementara o modificara las direcciones de memoria de
algunas instrucciones, las cuales tenían que ser hechas manualmente en los primeros diseños.
Esto se volvió menos importante cuando el índice de registros y el direccionamiento indirecto se
convirtieron en algo habitual en la arquitectura de computadores. El código automodificable fue
en gran parte ganando posiciones.
A gran escala, la habilidad de tratar instrucciones como datos es lo que hacen los
ensambladores, compiladores y otras herramientas de programación automáticas. Se pueden
"escribir programas para escribir programas".
Existen inconvenientes en el diseño de Von Neumann. Las modificaciones en los programas
podía ser algo perjudicial, por accidente o por diseño. En algunos simples diseños de
computador con programas almacenados, un mal funcionamiento del programa puede dañar
el computador. Otros programas, o el sistema operativo, posiblemente puedan llevar a un
daño total en el ordenador. La protección de la memoria y otras formas de control de acceso
pueden ayudar a proteger en contra de modificaciones accidentales y/o maliciosas de
programas.
Embotellamiento de Von Neumann (Von Neumann bottleneck):
La separación entre la CPU y la memoria lleva al embotellamiento de Von Neumann, al
rendimiento de procesamiento limitado (tarifa de transferencia de datos) entre la CPU y a la
memoria comparada a la cantidad de memoria. En la mayoría de las computadoras modernas,
el rendimiento de procesamiento es mucho más pequeño que la tarifa en la cual la CPU puede
trabajar. Esto limita seriamente la velocidad del proceso eficaz cuando la CPU se requiere para
realizar el proceso mínimo en grandes cantidades de datos. La CPU es forzada continuamente
para esperar los datos necesarios que se transferirán desde o hacia memoria. Desde la CPU el
tamaño de la velocidad y de la memoria ha aumentado mucho más rápidamente que el
rendimiento de procesamiento entre ellos, el embotellamiento se ha convertido en más de un
problema. El término “embotellamiento de Von Neumann” fue acuñado por John Backus en su
conferencia de la concesión de 1977 ACM Turing. Según Backus: Seguramente debe haber una
manera menos primitiva de realizar cambios grandes en el almacén que empujando los
grandes números de palabras hacia adelante y hacia atrás a través del embotellamiento de
Von Neumann.
Primeros ordenadores basados en arquitecturas von Neumann:
La primera saga se basaba en un diseño que fue utilizado por muchas universidades y empresas
para construir sus equipos. Entre estos, sólo ILLIAC y ORDVAC tenían un conjunto de
instrucciones compatible.
* ORDVAC (U-Illinois) en Aberdeen Proving Ground, Maryland (completado en noviembre de
1951)
* IAS machine en Princeton University (Jan 1952)
* MANIAC I en Laboratorio Científico Los Alamos(Mar 1952)
* ILLIAC en la Universidad de Illinois, (Sept. 1952)
* AVIDAC en Laboratorios Argonne National (1953)
* ORACLE en Laboratorio Nacional de Oak Ridge (Jun. 1953)
* JOHNNIAC en RAND Corporation (Jan 1954)
*BESK en Estocolmo (1953)
* BESM en Moscú (1952)
* DASK en Dinamarca (1955)
* PERM
* SILLIAC en Sydney (1956)
* WEIZAC en Rehovoth (1955)
Modelo o arquitectura Harvard:
Arquitectura Harvard:
Tradicionalmente los microprocesadores se basan en la estructura de Von Neumann, como la de
la figura siguiente, que se caracteriza por disponer de una única memoria principal en la que se
almacenan los datos y las instrucciones. A esta memoria se accede a través de un sistema de
buses único:
* Bus de datos
* Bus de direcciones
*Bus de control
Arquitectura según el modelo de Von Neumann
El modelo Harvard , representado en la figura siguiente, dispone de dos memorias:
* Memoria de datos.
* Memoria de Programa.
Además cada memoria dispone de su respectivo bus, lo que permite, que la CPU pueda
acceder de forma independiente y simultánea a la memoria de datos y a la de instrucciones.
Como los buses son independientes éstos pueden tener distintos contenidos en la misma
dirección .
Arquitectura según el modelo HARVARD
Arquitectura Ortogonal:
Cualquier instrucción puede utilizar cualquier elemento de la arquitectura como fuente o
destino.
Arquitectura basada en banco de registros:
Arquitectura basada en banco de registros: Implica que todos los elementos del sistema, es
decir, temporizadores, puertos de entrada/salida, posiciones de memoria, etc., están
implementados físicamente como registros.
En los PIC el manejo del banco de registros, que participan activamente en la ejecución de las
instrucciones, es muy interesante al ser ortogonales. En la figura siguiente se muestra como la
ALU (Unidad Aritmético-Lógica) efectúa sus operaciones con dos operandos, uno que
proviene del registro W (Work), que en otras CPUs recibe el nombre de Acumulador, y el otro
que se encuentra en cualquier otro registro o del propio código de instrucción.
Arquitectura Interna:
El PIC 16C84 al igual que los demás miembros de su familia, se caracterizan por que :
Su procesador es segmentado, "pipe-line".
Su procesador es tipo RISC
Tiene una arquitectura HARVARD
El formato de las instrucciones es ortogonal
Todas las instrucciones tienen la misma longitud (14 bits)
La arquitectura está basada en banco de registros
¿Pero que significa todo esto? . Pues vamos a intentar aclarar estos conceptos:
Procesador segmentado "pipe-line": quiere decir que aplica la técnica de segmentación que
permite al procesador realizar simultáneamente la ejecución de una instrucción y la búsqueda
de código de la siguiente. De esta manera, se puede ejecutar una instrucción en un ciclo.
(Cada ciclo de instrucción son cuatro ciclos de reloj).
Procesador Segmentado pipeline
Procesador tipo RISC:
Las CPU´s atendiendo al tipo de instrucciones que utilizan pueden clasificarse en:
* CISC: (Complex Instruction Set Computer) Computadores de juego de instrucciones complejo,
que disponen de un repertorio de instrucciones elevado (unas 80), algunas de ellas muy
sofisticadas y potentes, pero que como contrapartida requieren muchos ciclos de máquina para
ejecutar las instrucciones complejas.
* RISC: (Reduced Instruction Set Computer) Computadores de juego de instrucciones reducido,
en los que el repertorio de instrucciones es muy reducido (en nuestro caso 35), las instrucciones
son muy simples y suelen ejecutarse en un ciclo máquina. Además los RISC deben tener una
estructura pipeline y ejecutar todas las instrucciones a la misma velocidad.
* SISC;(Specific Instriction Set Computer) Computadores de juego de instrucciones específico.
Arquitectura Harvard:
Tradicionalmente los microprocesadores se basan en la estructura de Von Neumann, como la
de la figura siguiente, que se caracteriza por disponer de una única memoria principal en la que
se almacenan los datos y las instrucciones. A esta memoria se accede a través de un sistema de
buses único:
* Bus de datos
* Bus de direcciones
* Bus de control
Arquitectura según el modelo de Von Neumann
El modelo Harvard , representado en la figura siguiente, dispone de dos memorias:
* Memoria de datos
* Memoria de Programa
Además cada memoria dispone de su respectivo bus, lo que permite, que la CPU pueda
acceder de forma independiente y simultánea a la memoria de datos y a la de
instrucciones. Como los buses son independientes éstos pueden tener distintos
contenidos en la misma dirección .
Arquitectura según el modelo HARVARD
Arquitectura Ortogonal:
Cualquier instrucción puede utilizar cualquier elemento de la arquitectura como fuente o
destino.
Arquitectura basada en banco de registros:
Arquitectura basada en banco de registros: Implica que todos los elementos del sistema,
es decir, temporizadores, puertos de entrada/salida, posiciones de memoria, etc, están
implementados físicamente como registros.
En los PIC el manejo del banco de registros, que participan activamente en la ejecución de
las instrucciones, es muy interesante al ser ortogonales. En la figura siguiente se muestra
como la ALU (Unidad Aritmético-Lógica) efectúa sus operaciones con dos operandos, uno
que proviene del registro W (Work), que en otras CPUs recibe el nombre de Acumulador, y
el otro que se encuentra en cualquier otro registro o del propio código de instrucción.
Registros que pueden enviar datos a la ALU. El resultado puede ir a cualquier registro o al
registro W
En la Figura siguiente se representa el diagrama de bloques del PIC 16C84 del que podemos
resaltar las siguientes características:
* Memoria de programa EEPROM de 1Kx14 bits
* Memoria de datos dividida en 2 áreas:
- Área RAM formada por 22 registros de propósito específico (SFR) y 36 de propósito
general (GPR).
- Área EEPROM formada por 64 bytes.
* ALU de 8 bits y registro de trabajo W del que normalmente recibe un operando que puede
ser cualquier registro, memoria, puerto de Entrada/Salida o el propio código de instrucción.
* Recursos conectados al bus de datos: PortA de 5 bits <RA0:RA4> , PortB de 8 bits
<RB0:RB7>, Temporizador con Preescaler TMR0, etc.
* Contador de programa de 13 bit (lo que en teoría permitiría direccionar 4 KB de memoria,
aunque el 16C84 solo dispone de 1KB de memoria implementada).
* Pila de 8 niveles.
El Contador de Programas (PC):
Los microcontroladores de la gama media disponen de un Contador de Programa (PC) de
13 bits, cuyos bits de menor peso corresponden a los 8 bits del registro PCL,
implementado en la posición de memoria RAM 02h (y duplicado en la posición 82h),y los
cinco bit de mayor peso del PC corresponden con los 5 bits de menor peso del registro
PCLATCH, implementado en la posición de memoria RAM 0Ah (y duplicado en la
posición 8Ah), lo que le permite direccionar hasta 8 K x 14 bits dividido en páginas de 2 K
x 14 bits. Sin embargo, el PIC16C84 dispone tan solo de 1Kx14 bits de memoria
implementada, desde la posición 0000h hasta la 03FFh, los 3 bit de mayor peso del PC no
los tiene en cuenta, así pues la dirección 30h, 430h, 830h, C30h,1430h, 1830 y 1C30h se
considera como la misma.
En las instrucciones CALL y GOTO los 11 <10:0> bits de menos peso corresponden al código
de operación, mientras que los 2 bit de mayor peso<12:11> los suministran respectivamente
los bit 4 y 3 del registro PCLATH que realmente apuntan a una de las 4 páginas del mapa de
memoria que puede direccionar el PC.
Un Reset provoca que se pongan a cero todos los bits del los registros PCL y PCLATCH,
forzando que la dirección de inicio sea la 0000h.
Como puede verse en la siguiente figura, el vector de reset se almacena en la dirección
0000h, mientras que el vector de interrupción está en la dirección 0004h. La memoria de
programa de usuario propiamente dicha, comienza en la posición 0005h y llega hasta la
03FFh.
La Pila:
La pila es una zona de memoria, que se encuentra separada tanto de la memoria de
programa como de la de datos. Tiene una estructura LIFO (Last In First Out), por lo que el
último valor que se guarda es el primero que sale. Dispone de 8 niveles de profundidad cada
uno de ellos con una longitud de 13 bits. Su funcionamiento es como el de un buffer circular,
de tal forma que el valor que se obtiene al realizar nueve desplazamientos, es igual al primer
desplazamiento.
La única manera de cargar la Pila es a través de la instrucción CALL (llamada a subrutina) o
por una interrupción que hacen que con cada una de ellas, se cargue el contenido del PC en el
valor superior de la Pila. Para recuperar el contenido de la Pila en el PC hay que ejecutar una
instrucción RETURN, RETLW o RETFIE (vuelta del programa de atención a una subrutina o
interrupción).
No se dispone de ningún flag (identificador) que indique un desbordamiento de la Pila.
Palabras de Configuración e Identificación:
Los PIC de la gama media disponen de una palabra de configuración de 14 bits que se escribe
durante el proceso de grabación del dispositivo y que debe hacerse de acuerdo con el sistema
en el que se va a insertar. Dichos bits ocupan la posición reservada de memoria de programa
2007h. En la Tabla siguiente se muestra la estructura de la Palabra de configuración.
Generaciones de Computadoras:
*Primera Generación (1951-1958) :
En esta generación había una gran desconocimiento de las capacidades de las computadoras,
puesto que se realizó un estudio en esta época que determinó que con veinte computadoras
se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta
generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas
máquinas tenían las siguientes características:
* Usaban tubos al vacío para procesar información.
* Usaban tarjetas perforadas para entrar los datos y los
programas.
* Usaban cilindros magnéticos para almacenar información
e instrucciones internas.
* Eran sumamente grandes, utilizaban gran cantidad de
electricidad, generaban gran cantidad de calor y eran
sumamente lentas.
* Se comenzó a utilizar el sistema binario para representar
los datos.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000
dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron
varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor
magnético, que es el antecesor de los discos actuales.
* Segunda Generación (1958-1964):
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen
muchas compañías y las computadoras eran bastante avanzadas para su época como la serie
5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se
programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:
* Usaban transistores para procesar información.
* Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
* 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
* Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad
de calor y eran sumamente lentas.
* Se mejoraron los programas de computadoras que fueron desarrollados durante la primera
generación.
* Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accsesibles.
* Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico
aéreo y simulaciones de propósito general.
* La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
* Surgieron las minicomputadoras y los terminales a distancia.
* Se comenzó a disminuir el tamaño de las computadoras.
Tercera Generación (1964-1971) :
La tercera generación de computadoras emergió con el desarrollo de circuitos integrados
(pastillas de silicio) en las que se colocan miles de componentes electrónicos en una
integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más
rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM360 dominó las ventas de la tercera generación de ordenadores desde su presentación en
1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.
Características de está generación:
* Se desarrollaron circuitos integrados para procesar
información.
* Se desarrollaron los "chips" para almacenar y procesar la
información. Un "chip" es una pieza de silicio que contiene los
componentes electrónicos en miniatura llamados
semiconductores.
* Surge la multiprogramación.
* Las computadoras pueden llevar a cabo ambas tareas de
procesamiento o análisis matemáticos.
* Emerge la industria del "software".
* Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1
* Otra vez las computadoras se tornan más pequeñas, más
ligeras y más eficientes.
* Consumían menos electricidad, por lo tanto, generaban
menos calor.
Cuarta Generación (1971-1988) ;
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos
integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con
base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende
al mercado industrial. Aquí nacen las computadoras personales que han adquirido
proporciones enormes y que han influido en la sociedad en general sobre la llamada
"revolución informática".
Características de está generación:
* Se desarrolló el microprocesador.
* Se colocan más circuitos dentro de un "chip".
* "LSI - Large Scale Integration circuit".
* "VLSI - Very Large Scale Integration circuit".
* Cada "chip" puede hacer diferentes tareas.
* Un "chip" sencillo actualmente contiene la unidad de control y
la unidad de aritmética/lógica. El tercer componente, la memoria
primaria, es operado por otros "chips".
* Se reemplaza la memoria de anillos magnéticos por la
memoria de "chips" de silicio.
* Se desarrollan las microcomputadoras, o sea, computadoras
personales o PC.
* Se desarrollan las supercomputadoras.
Quinta Generación (1983 al presente)
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la
tarea de poner también a esa altura el desarrollo del software y los sistemas con que se
manejan las computadoras. Surge la competencia internacional por el dominio del mercado
de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar
el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más
cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los
objetivos explícitos de producir máquinas con innovaciones reales en los criterios
mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que
persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.
Inteligencia artificial
:
La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del
pensamiento humano usados en la solución de problemas a la computadora.
Robótica:
La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de
computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo
diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a
situaciones no estructuradas.
Sistemas expertos:
Un sistema experto es una aplicación de inteligencia artificial que usa una base de
conocimiento de la experiencia humana para ayudar a la resolución de problemas.
Redes de comunicaciones:
Los canales de comunicaciones que interconectan terminales y computadoras se conocen
como redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el
"software" que administra la transmisión.
Hardware y Software:
* Hardware:
Hardware son los dispositivos físicos como la placa base, la CPU o el monitor.
Los componentes y dispositivos del Hardware se dividen en Hardware Básico y Hardware
Complementario
El Hardware Básico: son las piezas fundamentales e imprescindibles para que la
computadora funcione como son: Placa base, monitor, teclado y ratón.
El Hardware Complementario: son todos aquellos dispositivos adicionales no esenciales como
pueden ser: impresora, escáner, cámara de vídeo digital, webcam, etc.
Placa Base o Placa Madre:
Los componentes Hardware más importantes de la computadora y esenciales para su
funcionamiento se encuentran en la Placa Base (también conocida como Placa Madre), que es
una placa de circuito impreso que aloja a la Unidad Central de Procesamiento (CPU) o
microprocesador, Chipset (circuito integrado auxiliar), Memoria RAM, BIOS o Flash-ROM,
etc., además de comunicarlos entre sí.
Grupos de Hardware:
Según sus funciones, los componentes y dispositivos del hardware se dividen en varios grupos
y en el siguiente orden:
* Dispositivos de Entrada
* Chipset (Circuito Integrado Auxiliar)
* Unidad Central de Procesamiento (CPU)
* Unidad de Control
* Unidad Aritmético-Lógica
* Unidad de Almacenamiento
* Memoria Principal o Primaria (RAM – ROM)
* Memoria Secundaria o Auxiliar (Disco Duro, Flexible, etc.)
* Dispositivos de Salida
Dispositivos de Entrada:
Los Dispositivos de Entrada son aquellos a través de los cuales se envían datos externos a la
unidad central de procesamiento, como el teclado, ratón, escáner, o micrófono, entre otros.
Chipset (Circuito Integrado Auxiliar):
El Chipset o Circuito Integrado Auxiliar es la médula espinal de la computadora, integrado en la
placa base, hace posible que esta funcione como eje del sistema permitiendo el tráfico de
información entre el microprocesador (CPU) y el resto de componentes de la placa base,
interconectándolos a través de diversos buses que son: el Northbridge (Puente Norte) y el
Southbridge (Puente Sur).
El Northbridge o Puente Norte es un circuito integrado que hace de puente de enlace entre el
microprocesador y la memoria además de las tarjetas gráficas o de vídeo AGP o PCI-Express,
así como las comunicaciones con el Puente Sur.
El Southbridge o Puente Sur (también conocido como Concentrador de Controladores de
Entrada/Salida), es un circuito integrado que coordina dentro de la placa base los dispositivos
de entrada y salida además de algunas otras funcionalidades de baja velocidad. El Puente Sur
se comunica con la CPU a través del Puente Norte.
Unidad Central de Procesamiento (CPU):
La CPU (Central Processing Unit o Unidad Central de Procesamiento) puede estar compuesta
por uno o varios microprocesadores de circuitos integrados que se encargan de interpretar y
ejecutar instrucciones, y de administrar, coordinar y procesar datos, es en definitiva el cerebro
del sistema de la computadora. además, la velocidad de la computadora depende de la
velocidad de la CPU o microprocesador que se mide en Mhz (unidad de medida de la velocidad
de procesamiento). Se divide en varios registros:
Unidad de Control:
La Unidad de Control es la encargada de controlar que las instrucciones se ejecuten,
buscándolas en la memoria principal, decodificándolas (interpretándolas) y que después serán
ejecutadas en la unidad de proceso.
Unidad Aritmético-Lógica:
La Unidad Aritmético-Lógica es la unidad de proceso donde se lleva a cabo la ejecución de las
instrucciones con operaciones aritméticas y lógicas.
Unidad de Almacenamiento:
La Unidad de Almacenamiento o Memoria guarda todos los datos que son procesados en la
computadora y se divide en Memoria Principal y Memoria Secundaria o Auxiliar.
Memoria Principal o Primaria (RAM – ROM):
En la Memoria Principal o Primaria de la computadora se encuentran las memorias RAM, ROM
y CACHÉ.
La Memoria RAM (Random Access Memory o Memoria de Acceso Aleatorio) es un circuito
integrado o chip que almacena los programas, datos y resultados ejecutados por la
computadora y de forma temporal, pues su contenido se pierde cuando esta se apaga. Se
llama de acceso aleatorio - o de acceso directo - porque se puede acceder a cualquier posición
de memoria sin necesidad de seguir un orden. La Memoria RAM puede ser leída y escrita por
lo que su contenido puede ser modificado.
La Memoria ROM (Read Only Memory o Memoria de sólo lectura) viene grabada en
chips con una serie de programas por el fabricante de hardware y es sólo de lectura, por lo que
no puede ser modificada - al menos no muy rápida o fácilmente - y tampoco se altera por cortes
de corriente. En esta memoria se almacenan los valores correspondientes a las rutinas de
arranque o inicio del sistema y a su configuración.
La Memoria Caché o RAM Caché es una memoria auxiliar de alta velocidad, que no es más que
una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM.
Memoria Secundaria (Disco Duro, Disco Flexibles, etc.)
La Memoria Secundaria (también llamada Periférico de Almacenamiento) está compuesta por
todos aquellos dispositivos capaces de almacenar datos en dispositivos que pueden ser internos
como el disco duro, o extraíble como los discos flexibles (disquetes), CDs, DVDs, etc.
Software
Software es todo el conjunto intangible de datos y programas de la computadora.
El Software es el soporte lógico e inmaterial que permite que la computadora pueda
desempeñar tareas inteligentes, dirigiendo a los componentes físicos o hardware con
instrucciones y datos a través de diferentes tipos de programas.
El Software son los programas de aplicación y los sistemas operativos, que según las funciones
que realizan pueden ser clasificados en:
* Software de Sistema
* Software de Aplicación
* Software de Programación
Software de Sistema:
Se llama Software de Sistema o Software de Base al conjunto de programas que sirven para
interactuar con el sistema, confiriendo control sobre el hardware, además de dar soporte a otros
programas.
El Software de Sistema se divide en:
* Sistema Operativo
* Controladores de Dispositivos
*Programas Utilitarios
Sistema operativo:
El Sistema Operativo es un conjunto de programas que administran los recursos de la
computadora y controlan su funcionamiento.
Un Sistema Operativo realiza cinco funciones básicas: Suministro de Interfaz al Usuario,
Administración de Recursos, Administración de Archivos, Administración de Tareas y Servicio de
Soporte.
1. Suministro de interfaz al usuario: Permite al usuario comunicarse con la computadora por
medio de interfaces que se basan en comandos, interfaces que utilizan menús, e interfaces
gráficas de usuario.
2. Administración de recursos: Administran los recursos del hardware como la CPU, memoria,
dispositivos de almacenamiento secundario y periféricos de entrada y de salida.
3. Administración de archivos: Controla la creación, borrado, copiado y acceso de archivos de
datos y de programas.
4. Administración de tareas: Administra la información sobre los programas y procesos que se
están ejecutando en la computadora. Puede cambiar la prioridad entre procesos, concluirlos y
comprobar el uso de estos en la CPU, así como terminar programas.
5. Servicio de soporte: Los Servicios de Soporte de cada sistema operativo dependen de las
implementaciones añadidas a este, y pueden consistir en inclusión de utilidades nuevas,
actualización de versiones, mejoras de seguridad, controladores de nuevos periféricos, o
corrección de errores de software.
Controladores de Dispositivos:
Los Controladores de Dispositivos son programas que permiten a otros programa de mayor nivel
como un sistema operativo interactuar con un dispositivo de hardware.
Programas Utilitarios:
Los Programas Utilitarios realizan diversas funciones para resolver problemas específicos,
además de realizar tareas en general y de mantenimiento. Algunos se incluyen en el sistema
operativo.
Software de Aplicación:
El Software de Aplicación son los programas diseñados para o por los usuarios para facilitar la
realización de tareas específicas en la computadora, como pueden ser las aplicaciones
ofimáticas (procesador de texto, hoja de cálculo, programa de presentación, sistema de
gestión de base de datos...), u otros tipos de software especializados como software médico,
software educativo, editores de música, programas de contabilidad, etc.
Software de Programación:
El Software de Programación es el conjunto de herramientas que permiten al desarrollador
informático escribir programas usando diferentes alternativas y lenguajes de programación.
Este tipo de software incluye principalmente compiladores, intérpretes, ensambladores,
enlazadores, depuradores, editores de texto y un entorno de desarrollo integrado que
contiene las herramientas anteriores, y normalmente cuenta una avanzada interfaz gráfica
de usuario (GUI).
La interacción entre el Software y el Hardware hace operativa la máquina, es decir, el
Software envía instrucciones al Hardware haciendo posible su funcionamiento.
Evolución del microcomputador:
Una microcomputadora es una computadora que tiene un microprocesador (unidad central
de procesamiento).
Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y
entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial
fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora
personal se le aplica a la computadora que es ultra portátil para las personas. La primera
generación de microcomputadora fue conocida también como computadoras domésticas. Se
puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras
dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una
herramienta de trabajo.
Sus principales características son:
* Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
* Usuario a la vez: Uno (Por eso se llaman Personales).
* Su uso más común es para propósitos personales.
* Tamaño: Pequeña, o portátiles.
* Facilidad de uso: fáciles de usar.
* Clientes usuales: Pequeñas empresas, oficinas, escuelas,
* Penetración social: Mediana.
* Impacto social: Alto, en los países industrializados.
* Parque instalado: Cientos de millones en el mundo.
* Costo: Pocos cientos de dólares estadounidenses.
* Peso: 10 kg aproximadamente (computadoras de escritorio).
Una microcomputadora es la computadora digital más pequeña y de propósito general, que
puede ejecutar instrucciones de programas para llevar a cabo una amplia variedad de tareas. Las
microcomputadoras fueron diseñadas, en un principio, para ser utilizadas por una sola persona o
usuario en un momento determinado, y las mismas no son más que uno de los resultados de la
evolución de las computadoras.
A las microcomputadoras se les suele llamar también como COMPUTADORA PERSONAL
Características:
* Aparecen en la Cuarta Generación de las Computadoras Digitales.
* Son construidas en base a microprocesadores, la mayoría de sus componentes electrónicos
son de muy alta escala de integración ( VLSI ).
* Son de gran versatilidad ( facilidad para agregarles nuevos componentes físicos ).
*Sus unidades de almacenamiento secundario son, básicamente, los discos flexibles y los discos
duros
*Por lo general son utilizadas como monousuario, aunque las microcomputadoras actuales
pueden ser utilizadas como multiusuario.
* Son de relativos bajos costos, lo que facilita su adquisición.
* Son de fácil instalación y utilización, lo que hace que no se requiera de personal especializado.
* Las microcomputadoras no son más que uno de los productos de la evolución de las
computadoras digitales.
* Impulsado por los grandes avances que se han dado en la industria de la electrónica, como lo
fueron la invención del transistor, los circuitos integrados, entre otros.
* La necesidad de contar con computadoras que fueran mas sencillas y accesibles que las
existentes ( mainframes y minicomputadoras ) .
Entre los acontecimientos más importantes tenemos:
1971 - Introducción del PRIMER MICROPROCESADOR, el INTEL 4004 por INTEL
CORPORATION
1971 - 1974
El INTEL 4004 era un microprocesador de 4 bits, contenía el equivalente a 2.300 transistores.
Este microprocesador tenía la misma potencia de cálculo, aproximadamente 60.000
instrucciones por segundo, que la computadora ENIAC fabricada en 1946 (En la construcción de
la ENIAC se utilizaron cerca de 18.000 válvulas de vacío).
1971 - Con la introducción del microprocesador 4004, INTEL acuñó un nuevo concepto, el de
UNA COMPUTADORA EN UN PROCESADOR.
El INTEL 4004 fue desarrollado por encargo de una compañía japonesa, Busicom, que
estaban en proceso de desarrollo de una calculadora de escritorio. El bajo costo del INTEL 4004
(200 dólares) y su pequeño tamaño permitieron a los ingenieros crear nuevos tipos de
productos que cambiaron al mundo.
1974 - INTEL desarrolla el microprocesador 8080, primer microprocesador de 8 bits, contenía
6.000 transistores, podía procesar 640.000 instrucciones por segundo. Estaba limitado al
manejo de 64 Kbytes de memoria ( El microprocesador Pentium puede manejar hasta 4
Gbytes). Fue utilizado, también, en la modernización de artefactos domésticos y máquinas
industriales.
1975 - ENERO. Introducción de la primera microcomputadora, la MITS ALTAIR 8800, basada
en el microprocesador INTEL 8080.
El ALTAIR 8800, era solamente una caja de metal con un panel frontal compuesto de
conmutadores y luces para entrada y salida, una fuente de poder, una tarjeta principal con 18
conectores, una tarjeta con el CPU y otra que proporcionaba 256 bytes de memoria principal.
Esta microcomputadora no tenía teclado, ni monitor, ni dispositivos de almacenamiento
permanente
1975 - ENERO. Introducción de la primera microcomputadora, la MITS ALTAIR 8800, basada
en el microprocesador INTEL 8080. 1975 - Introducción del primer lenguaje BASIC para el
ALTAIR, por Paul Allen y Bill Gates.
1975 - Fundada MICROSOFT
(antes Traf-O-Data)
por Paul Allen y Bill Gates.
1975 - Se funda Cromemco
1975 - Se publicó el primer número de la revista BYTE
1976 - Fundada DIGITAL RESEARCH por Gary Kildall 1976 - Se realiza la primera venta del
sistema operativo CP/M, desarrollado por Digital Research.
1977 - Aparecen las primeras microcomputadoras ensambladas completamente, que incluían el
sistema central, el monitor, el teclado, etc.
1977 - APPLE COMPUTER introduce la APPLE
1977 - Se desarrolla la primera Red de Orea Local (LAN) para uso comercial, llamada ARCNET,
por Datapoint Corporation.
1978 - Se libera el microprocesador de 16 bits INTEL 8086, que contenía 29.000 transistores,
seis veces más que el 8080. Podía direccionar hasta un Megabyte de memoria principal.
Ejecutaba, aproximadamente, 750.000 instrucciones por segundo.
Aparecieron las primeras microcomputadoras.
* Las microcomputadoras eran consideradas como herramientas de trabajo para
innovadores, aficcionados y especialistas o amantes de la electrónica.
* Las características principales de las microcomputadoras eran: CPU 8080, memoria
principal entre 4 y 16 Kbytes, las cintas de cassette eran el principal medio de
almacenamiento secundario.
* La programación de estas microcomputadoras se realizaba en lenguaje ensamblador o en
lenguaje Basic.
* Se fundan una gran cantidad de compañías dedicadas a la fabricación de
microcomputadoras, sus accesorios y componentes, así como también, al desarrollo de
programas.
1979 - Tandy / Radio Shack anuncian la TRS-80 modelo II
1979 - MicroPro, de Seymour Rubistein, introduce WordStar, uno de los primeros
procesadores de palabras, el cual llegó a convertirse en un estándar, primero bajo CP/M y
luego bajo MS-DOS.
1979 - Dan Bricklin y Bob Frankston desarrollaron el primer programa de hoja electrónica para
las microcomputadoras, el VisiCalc, el cual fue distribuido por la empresa Personal-Software. Se
convirtió rápidamente en el paquete de software mas vendido
1979 - Se libera el microprocesador de 16 bits INTEL 8088 (internamente igual al 8086 pero con
un bus de datos externos de 8 bits). El 8088 contenía 29.000 transistores y podía direccionar
hasta un Megabyte de memoria principal. Ejecutaba, aproximadamente, 750.000 instrucciones
por segundo.
1980 - Intel desarrolla los coprocesadores 8087 (matemático) y 8089 (de entrada y salida)
1980 - AGOSTO - Desarrollo del 86-DOS por Tim Paterson de Seattle Computers Products.
1980 - Hewlett Packard lanza la HP-85
1980 - Se anuncia la microcomputadora APPLE III
1980 - IBM firmó un acuerdo de consultoría con MicroSoft para que ésta desarrollara un
sistema operativo para la proyectada microcomputadora de IBM (basada en el INTEL 8086).
1980 - Se desarrolla en IBM el primer prototipo de una microcomputadora basada en un
microprocesador RISC (Reduce Instruction Set Computer).
Las microcomputadoras comenzaron a ser utilizadas por pequeñas compañias y algunos
profesionales.
Las características principales de las microcomputadoras eran:
* CPU 8080 o Motorola 6502, memoria principal con un tamaño entre 16 a 64 Kbytes.
* Como medios de almacenamiento secundario los discos flexibles sustituyeron a las cintas
tipo casette.
* El lenguaje BASIC fue adoptado como lenguaje de programación.
* Se introdujeron los primeros programas de hojas electrónicas de cálculo, procesadores de
palabras, paquetes administrativos
1981 - Osborne Computer Corporation introduce el Osborne 1, la primera
microcomputadora portátil. 1981 - AGOSTO. Se introduce el sistema operativo PC DOS 1.0 (MS-DOS 1.0), junto con la IBM PC
1982
- Varias compañías comienzan a fabricar imitaciones ( CLONES ) de la IBM PC.
- Apple Computer anuncia LISA, primera microcomputadora que utilizaba un ambiente
gráfico y el mouse.
Digital Equipment Corporation (DEC) ingresa al mercado de las microcomputadoras.
1982 - FEBRERO - Se introduce el microprocesador de 16 bits INTEL 80286, el cual contenía
cerca de 134.000 transistores. Podía ejecutar hasta 2,66 millones de instrucciones por
segundo ( MIPS ) y direccionar hasta 16 Mbytes de memoria principal.
1982 - IBM anuncia la IBM PC - XT
1982 - Microsoft libera el PC-DOS 1.1 (MS-DOS 1.1)
1983 Marzo - Microsoft libera el PC-DOS 2.0 (MS-DOS 2.0)
1983 - IBM anuncia el PCjr
1983 - Microsoft libera el sistema operativo PC-DOS 2.1
Comenzó el “Boom” de las microcomputadoras.
Las características principales de las microcomputadoras eran:
* CPU 8088/8086 a 4.77 Mhz, memoria principal entre 64 y 256 Kbytes, Como medios de
almacenamiento secundario los discos flexibles (disquetes) se convierten en un estándar, y
se comienza a utilizar discos duros de 5 y 10 Megabytes.
* Las microcomputadoras comienzan a desplazar y sustituir a las personas en ciertos
trabajos especializados. Ejecutivos de medianas y grandes corporaciones utilizan esta
herramienta en sus actividades diarias.
* Se desarrollan novedosos manejadores de bases de datos, paquetes de análisis financiero
y herramientas para el desarrollo de aplicaciones gráficas.
1984 - Apple Computer anuncia la MACINTOSH, la cual tenía una capacidad de memoria de
128 Kbytes, un monitor integrado y un mouse. Fue la microcomputadora que popularizó el uso
de las interfaces gráficas.
1984 - NOVIEMBRE - Microsoft libera el MS-DOS 3.1 (PC-DOS 3.1), el cual incorporó ciertas
modificaciones para dar apoyo a las redes.
ENERO - MicroSoft libera el sistema operativo MS-DOS 3.2 (PC-DOS 3.2).
1987 - ABRIL 2 - IBM introduce la microcomputadora IBM PS/2 (Personal System 2).
1987 - ABRIL - MicroSoft libera el MS-DOS 3.3
(PC-DOS 3.3).
1987 - SUN Microsystems introduce el microprocesador SPARC, el cual es utilizado como CPU
en la fabricación de las estaciones de trabajo SPARCstation.
1988 - ENERO - MicroSoft comienza a distribuir el MS-OS/2. Este sistema operativo era
capaz de explotar las características multitarea de los microprocesadores INTEL 80286 y
80386.
1988 - NOVIEMBRE - MicroSoft libera el MS-DOS 4.0, el cual es reemplazado posteriormente
con el MS-DOS 4.01
1989 - ABRIL - INTEL introduce el microprocesador de 32 bits 80486 ( 486DX o i486 ), el cual
contenía 1,20 millones de transistores y podía ejecutar 20, 27 o 41 millones de operaciones por
segundo ( 25, 33 y 50 Mhz ).
El microprocesador 486DX le añade varias características notables al Intel 386, del cual es
sucesor, como lo son: La inclusión de caché interno, procesador de punto flotante, unidad de
administración o gestión de memoria, así como varios recursos operacionales avanzados para el
multiprocesamiento.
Aparecen en el mercado las primeras microcomputadoras basadas en el microprocesador 80386,
trabajando primero a 16 Mhz, después son utilizadas velocidades de 20, 25 y 33 Mhz.
Los usuarios comienzan a requerir gráficos de alta resolución, animación, velocidad de cálculo
elevada, grandes capacidades de almacenamiento y posibilidad de trabajar en ambientes
multitarea, multiusuarios y en redes locales de interconexión.
Las microcomputadoras se clasifican en:
- PC y XT, basadas en el microprocesador 8088/86, con bus de datos de 8 bits y bus de -- ----direccionamiento de 16 bits.
- AT 286, basadas en el microprocesador 80286, con bus de datos de 16 bits y bus de
direccionamiento de 20 bits.
- AT 386, basadas en el microprocesador 80386, con bus de datos y direccionamiento de 32 bits.
1990 - MAYO - MicroSoft liberó el ambiente gráfico de usuario MicroSoft WINDOWS 3.0
1991 - JUNIO. MicroSoft liberó el sistema operativo
MS-DOS 5.0
1992 - INTEL introduce el microprocesador de 32 bits el 80486DX2, que contenía cerca de 1,2
millones de transistores y podía ejecutar 41 millones de instrucciones por segundo.
1992 - ABRIL - MicroSoft liberó el MicroSoft WINDOWS 3.1
1992 - IBM liberó el sistema operativo OS/2 versión 2.0 1992 - Apple Computer liberó el
sistema operativo System 7.1
1993 - Microsoft liberó el sistema operativo MS-DOS 6.0
1993 Marzo 22 - INTEL introduce el PENTIUM, microprocesador de 32 bits, con bus de datos
de 64 bits y bus de direcciones de 32 bits. Incorpora 3,1 millones de transistores y puede
ejecutar mas de 100 millones de instrucciones por segundo ( 112 MIPS el de 66 Mhz, 126 MIPS
el de 75 Mhz, 166 MIPS el de 100 Mhz, 203 MIPS el de 120 Mhz )1993 - MicroSoft liberó el
sistema operativo
Windows NT
1993 - Noviembre - Microsoft liberó el sistema operativo MS-DOS 6.2
1994 - Primer semestre - Microsoft liberó el
MS-DOS 6.21 y posteriormente el MS - DOS 6.22
Las microcomputadoras han penetrado en muchos aspectos de nuestra vida moderna, desde
controlar cualquier tipo de máquina, hasta servir de instrumentos para el esparcimiento y
diversión. Se desarrollan microcomputadoras cada vez más rápidas. Los avances en la
tecnología de miniaturización de circuitos electrónicos, han posibilitado la fabricación de
pequeñas y potentes microcomputadoras, como los notebook, palmtop; los cuales tienen
mayor velocidad y potencia de cálculo que las supercomputadoras de la década de los 50.
Se desarrolla software más sofisticado y poderoso, que aprovecha las potencialidades
proporcionadas por los nuevos componentes con los que se fabrican las
microcomputadoras.
Las Interfaces gráficas de usuario (GUI) se convierten en un estándar para el uso de las
microcomputadoras.
1996 Enero 4 - INTEL introduce los microprocesadores PENTIUM de 150 Mhz y 166 Mhz,
que contienen 3,3 millones de transistores.
1997 Mayo 7 - INTEL introdujo el microprocesador INTEL PENTIUM II de 233 Mhz, que
contiene 7,5 millones de transistores. Está optimizado para aplicaciones de 32 bits. Se
comercializó en versiones que van desde los 233 hasta los 400 Mhz
2000 Noviembre - INTEL introdujo el microprocesador INTEL PENTIUM 4 de 1,3 Ghz, que
contiene 42 millones de transistores.