Download Para realizar una suma o una resta, se activaba el sistema de

Document related concepts
no text concepts found
Transcript
Historia de la computación
(Redirigido desde Historia de la informática)
La computadora u ordenador, no es un invento de alguien en particular, sino el
resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con
áreas tales como la electrónica, lamecánica, los materiales semiconductores, la lógica,
el álgebra y la programación.
Contenido
[ocultar]

1 Siglo XVII

2 Siglo XVIII

3 Siglo XIX

4 Siglo XX

5 Siglo XXI

6 Véase también

7 Enlaces externos
Siglo XVII

El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el algoritmo,
es decir, la resolución metódica de problemas de álgebra y cálculo numérico
mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la
solución al problema que se plantea.
1617

Justo antes de morir, el matemático escocés John Napier (1550-1617), famoso por
su invención de los logaritmos, desarrolló un sistema para realizar operaciones
aritméticas manipulando barras, a las que llamó "huesos" juanito pppm ya que
estaban construidas con material de hueso o marfil, y en los que estaban
plasmados los dígitos. Dada su naturaleza, se llamó al sistema "Napier Bones".
Los Huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla
deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que
contaron con logaritmos.
1623

La primera calculadora mecánica fue diseñada por Wilhelm Schickard en
Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de
Napier, hacía rodar cilindros en un albergue grande. Se comisionó un Reloj
Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el
fuego antes de que se terminara.
1624

La primera regla deslizante fue inventada por el matemático inglés William
Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de
discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno
de los primeros aparatos de la informática analógica. Su época de esplendor duró
más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el
último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles
comenzaron a ser populares.
1642
Pascalina firmada por Pascal en 1652.

Blaise Pascal inventa la Pascalina en 1645. Con esta máquina, los datos se
representaban mediante las posiciones de los engranajes. La Pascalina es una de
las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez
dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las
ruedas estaban conectadas de tal manera que podían sumarse números
haciéndolas avanzar el número de dientes correcto.
1666

La primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces
Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de
una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc.
Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la
Pascalina, este aparato no tenía avance automático de columnas.
1673

La primera calculadora de propósito general fue inventada por el matemático
alemán Gottfried Leibniz. El aparato era una partida de la Pascalina; mientras
opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de
engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones,
padeció de problemas de fiabilidad que disminuyó su utilidad.
Siglo XVIII
1769

El Jugador de Ajedrez Autómata, "El Turco", fue inventado por el Barón Wolfgang
von Kempelen, un noble húngaro. Pretendió ser una máquina pura, incluía un
jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión
óptica bien planteada que permitía a un maestro del ajedrez esconderse en su
interior y operar el maniquí, era una sensación dondequiera que iba pero se
destruyó en un incendio en 1856.
1777

Se inventó la primera máquina lógica por Charles Mahon, el Conde de Stanhope.
El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos
tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de
los componentes lógicos en computadoras modernas.
Siglo XIX
1801

El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas
perforadas para controlar el dibujo formado por los hilos de las telas
confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos
perforados permitían programar las puntadas del tejido, logrando obtener una
diversidad de tramas y figuras. Inspirado por instrumentos musicales que se
programaban usando papel agujereado, la máquina se parecía a una atadura del
telar que podría controlar automáticamente los dibujos usando una línea de
tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba
por formar la base de muchos aparatos de la informática e idiomas de la
programación.
1820

La primera calculadora de producción masiva se distribuyó por Charles Thomas de
Colmar. Originalmente se les vendió a casas del seguro Parisienses,
el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz.
Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la
Exhibición Internacional en Londres en 1862.
1822

Charles Babbage completó su Artefacto de la diferencia, una máquina de propósito
específico que se podía usar para calcular valores de funciones polinómicas
mediante el método de las diferencias. El Artefacto de la Diferencia era un
ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su
"Artefacto Analítico", un aparato de propósito general que era capaz de ejecutar
cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la
primera conceptualización clara de una máquina que podría ejecutar el tipo de
cálculos computacionales que ahora se consideran el corazón de informática.
Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda
computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue
finalmente construido por un equipo moderno de ingenieros, en 1989, cien años
después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy
se conoce como el "Padre de las Computadoras Modernas".
1837

Fue inicialmente descrita la máquina analítica de Charles Babbage. Es el diseño
de un computador moderno de propósito general. La idea que tuvo Charles
Babbage sobre un computador nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y muy propenso a errores.
1843

Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se
adaptaran de manera que causaran que el motor de Babbage repitiera ciertas
operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la
primera programadora.
1854

El desarrollo del Álgebra de Boole fue publicado por el lógico inglés George Boole.
El sistema de Boole redujo a argumentos lógicos las permutaciones de tres
operadores básicos algebraicos: y,o, y no. A causa del desarrollo del álgebra de
Boole, Boole es considerado por muchos como el padre de la teoría de la
informática.
1869

La primera máquina lógica en usar el álgebra de Boole para resolver problemas
más rápido que humanos, fue inventada por William Stanley Jevons. La máquina,
llamada el Piano lógico, usó un alfabeto de cuatro términos lógicos para resolver
silogismos complicados.
1878

Un comité de la Asociación Británica para el avance de la ciencia recomendó no
construir la máquina analítica, por lo que Babbage no tuvo acceso a fondos del
gobierno.

Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora
con una tabla interna de multiplicación; esto fue mucho más rápido que usar
acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra
en producción, sólo quiso mostrar que un español podía inventar tanto como
un americano.
1879

A los 19 años de edad, Herman Hollerith fue contratado como asistente en las
oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante
tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza,
entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se
realizó en dos años y medio, cinco menos que el censo de 1880.Se tardaba tanto
en hacer el censo debido a la llegada masiva de inmigrantes.
1884

Dorr Felt desarrolló su Comptómetro, el cual fue la primera calculadora que se
operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.
1893

La primera máquina exitosa de multiplicación automática se desarrolló por Otto
Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de
1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para
negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de
ellos se vendieron en los cuarenta años que siguieron.
Siglo XX
1906

El primer tubo de vacío fue inventado por el estadounidense, Lee De Forest. El
"Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio
evacuada. Los elementos eran capaces de hallar y amplificar señales de radio
recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones
tempranas de 5 computadoras, a comienzos de 1930.
1919

El primer circuito multivibrador o biestable (en léxico electrónico flip-flop) fue
desarrollado por los inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop
permitió diseñar circuitos electrónicos que podían tener dos estados estables,
alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1.
Esto formó la base del almacenamiento y proceso del bit binario, estructura que
utilizan las actuales computadoras.
1924

Walther Bothe construyó una puerta lógica AND para usarla en experimentos
físicos, por lo cual recibió el premio Nobel de física en 1954.
1925

Se fundan los laboratorios Bell.
1930

Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz
de resolver ecuaciones diferenciales.
1931

Kurt Gödel publicó un documento sobre los lenguajes formales basados en
operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y
pruebas formales, y mostró que los sistemas formales, como las matemáticas
tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias
improbables pero ciertas. Sus resultados son fundamentales en las ciencias
teóricas de la computación.
1936

Alan Turing describe la máquina de Turing, la cual formaliza el concepto
de algoritmo.
1940

Samuel Williams y George Stibitz completaron en los laboratorios Bell una
calculadora que podía manejar números complejos.
1941

La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina
programable y completamente automática.
1942

John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de
propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la
cual fue llamada la "ABC" ("Atanasoff Berry Computer").
1944

Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo
encabezado por Howard H. Aiken.
1945

El primer caso de malfuncionamiento en la computadora causado por la intrusión
de una polilla al sistema fue documentado por los diseñadores del Mark II.
Erróneamente se cree que de allí proviene el uso del término "bug", que significa
insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes
para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y
electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra
desde 1889.

Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a
una librería de libros y películas.
1946
ENIAC.

Se construye en la Universidad de Pennsylvania la ENIAC (Electronic Numerical
Integrator And Calculator), que fue la primera computadora electrónica de
propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía
más de 18.000 tubos de vacío, consumía 200kW de energía eléctrica y requería
todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil
operaciones aritméticas por segundo.
1947

Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain,
y William Shockley.
1949

Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no
confiables tubos al vacío como la forma predominante de memoria por los
próximos diez años.
1950

Alan Turing expone un artículo que describe lo que ahora conocemos como
la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la
inteligencia y comunicación humana y de computadoras.
1951

Comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino
binaria y tuvo el primer programa diseñado para ser almacenado.

Eckert y Mauchly entregan a la Oficina del Censo su primer computador:
el UNIVAC I.

El Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador
desarrollado para una computadora electrónica.
1952

Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto,
considerada la primera red neural.
1953

IBM fabricó su primera computadora escala industrial, la IBM 650

Se amplía el uso del lenguaje ensamblador para la programación de las
computadoras.

Se crean memorias a base de magnetismo (conocidas como memorias de núcleos
magnéticos).
1954

Se desarrolla el lenguaje de programación de alto nivel FORTRAN.
1956

Darthmouth da una conferencia en a partir de la que nace el concepto
de inteligencia artificial.

Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas
en grafos como una demostración de las habilidades de la computadora ARMAC.
1957

Es puesta a la venta por parte de IBM la primera impresora de matriz de puntos.
1958

Comienza la segunda generación de computadoras, caracterizados por usar
circuitos transistorizados en vez de válvulas al vacío.

El primer circuito integrado se construyó por Jack S. Kilby.

La organización ARPA es creada como consecuencia tecnológica de la
llamada Guerra Fría.
1960

Se desarrolla COBOL, el primer lenguaje de programación de alto nivel
transportable entre modelos diferentes de computadoras.

Aparece ALGOL, el primer lenguaje de programación estructurado y orientado a
los procedimientos.

Se crea el primer compilador de computador.

C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación
llamado quicksort.
1961

Kenneth Iverson inventa el lenguaje de programación APL en IBM.

Aparece el concepto de paginación de memoria, descrito por T. Kilburn y D. J.
Howart.
1962

Los primeros programas gráficos que dejan que el usuario dibuje interactivamente
en una pantalla fueron desarrollados por Iván Sutherland en MIT.

El primer compilador autocontenido, es decir, capaz de compilar su propio código
fuente fue el creado para Lisp por Hart y Levin en el MIT.

Un equipo de la Universidad de Manchester completa la computadora ATLAS. Esta
máquina introdujo muchos conceptos modernos como
interrupciones, pipes (tuberías), memoria entrelazada,memoria virtual y memoria
paginada. Fue la máquina más poderosa del mundo en ese año.

El estudiante del MIT Steve Russell escribe el primer juego de computadora,
llamado Spacewar!.
1963
Caracteres ASCII imprimibles, del 32 al 126.

Un comité Industria-Gobierno define el código estándar de caracteres ASCII.

El primer minicomputador comercialmente exitoso es distribuido por DEC (Digital
Equipment Corporation).
1964

La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas
de circuito impreso con múltiples componentes elementales pasan a ser
reemplazadas con placas de circuitos integrados.

Aparece el CDC 6600, la primera supercomputadora comercialmente disponible.

Se desarrolla el lenguaje BASIC (el Dartmouth BASIC), John George
Kemeny y Thomas Eugene Kurtz en el Dartmouth College
1965

Gordon Moore publica la famosa Ley de Moore.

La lógica difusa, diseñada por Lofti Zadeh, se usó para procesar datos
aproximados.

J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.

Los algoritmos de exclusión mutua (sistemas operativos) fueron tratados por
primera vez en los clásicos documentos de Dijkstra.
1966

La mayoría de ideas y conceptos que existían sobre redes fueron aplicadas
a ARPANET.

Aparecen los primeros ensayos que más tarde definirían lo que hoy es
la programación estructurada.
1967

Los primeros programas exitosos de ajedrez fueron desarrollados por Richard
Greenblatt en el MIT.

Es inventado el diskette (disco flexible) en IBM por David Noble, bajo la dirección
de Alan Shugart.
1968

Robert Noyce y Gordon Moore fundan la corporación Intel.
1969

El protocolo de comunicaciones NCP fue creado para controlar la red ARPANET.

La primera minicomputadora de 16-bit es distribuida por la Data General
Corporation.

Se desarrolla en los laboratorios Bell el lenguaje de programación B cuyos aportes
fueron mayoritariamente de Ken Thompson y Dennis Ritchie.

Nace el sistema operativo UNICS en los laboratorios Bell de AT&T por un grupo de
empleados de dicho laboratorio, entre los que se encuentran Ken
Thompson, Dennis Ritchie y Douglas Mcllroy.
1970

El sistema UNICS, es renombrado como Unix.

El primer cable de fibra óptica fue comercialmente producido por Corning Glass
Works, Inc.

Se publica el primer modelo de base de datos relacional, por E.F. Codd.

El profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.

Brinch Hansen utiliza por primera vez la comunicación interprocesos en el
sistema RC 400.

Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una
capacidad de 1024 bits (1Kbits).
1971

Se presenta el primer procesador comercial y a la vez el primer chip
microprocesador, el Intel 4004.

Ray Tomlinson crea el primer programa para enviar correo electrónico, como
consecuencia, la arroba se usa por primera vez con fines informáticos.

Un grupo de investigadores del MIT presentaron la propuesta del primer "Protocolo
para la transmisión de archivos en Internet" (FTP).

Texas Instruments vende la primera calculadora electrónica portátil.
1972

Aparecen los disquetes de 5 1/4 pulgadas.

Se reconoce el primer virus informático, creado por Robert Thomas Morris. Atacó a
una máquina IBM Serie 360 y fue llamado Creeper.

Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C en
los Laboratorios Bell.

Nolan Bushnell y Ted Dabney fundan la Atari.

Intel desarrolla y pone a la venta el procesador 8008.

El concepto de región crítica fue sugerido por C. A. R. Hoare y Per Brinch Hansen.
1973

ARPA cambia su nombre por DARPA.
1974

Es creado el protocolo TCP por Vint Cerf y Robert Kahn.

Se crea el sistema Ethernet para enlazar a través de un cable único a las
computadoras de una red local (LAN).

Gary Kildall crea el sistema operativo CP/M, en base al cual se desarrolla
posteriormente, de manera polémica, MS-DOS, suponiendo una violación a los
derechos de autor (copyright) del CP/M.
1975

En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el
primer microcomputador personal reconocible como tal.

Se funda la empresa Microsoft.
1976

Se funda la empresa Apple.
1977

Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve
Wozniak en un garaje.
1978

Se desarrolla el famoso procesador de textos WordStar, originalmente para
plataforma CP/M (Control Program for Microcomputer).
1979

Dan Bricklin crea la primera hoja de cálculo, más tarde sería denominada VisiCalc.

Aparece el juego Pacman creado por Toru Iwatani de la empresa Namco.
1980

Surge el primer prototipo de Computadora de Instrucción Reducida (RISC),
desarrollado por un grupo de investigación en IBM.

La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron
2000.

Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios
Bell, llamado Bellmac-32.
1981

Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría
una revolución en el campo de la computación personal y definiría nuevos
estándares.

Se termina de definir el protocolo TCP/IP.

Apple presenta el primer computador personal que se vende a gran escala,
el apple II.

Sony crea los disquetes de 3 1/2 pulgadas.
1982

La Asociación Internacional MIDI publica el MIDI.

Se funda Compaq Computer Corporation, una compañía de computadoras
personales, por Rod Canion, Jim Harris y Bill Murto.
1983
Logo de GNU.

Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.

Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM
compatible, el Compaq portable.

ARPANET se separa de la red militar que la originó, de modo que, ya sin fines
militares, se puede considerar esta fecha como el nacimiento de Internet.

Se anuncia públicamente el proyecto GNU iniciado por Richard Stallman.

Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup.

Nace el primer sistema operativo de Sun llamado SunOS.

Aparece el famoso Lotus 1-2-3, un programa de hoja de cálculo realizado por la
compañía Lotus Software.

El sistema DNS consistía de 1000 hosts.

Se funda Borland.
1984

IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y
6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de
20 MB y un monitor monocromático. Su precio en ese momento era de 5.795
dólares.

Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el
cual introduce la interfaz gráfica ideada en Xerox.

Las compañías Philips y Sony crean los CD-Roms para computadores.

Se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una
interfaz gráfica a los sistemas Unix.

Aparece el lenguaje LaTeX para procesamiento de documentos.

Hewlett-Packard lanza su popular impresora LaserJet.

Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en
soluciones de red e infraestructuras para Internet.
1985

Microsoft presenta el sistema operativo Windows 1.0.

Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue
considerablemente más rápida que una PC IBM. Fue la primera de la línea de
computadoras Compaq Deskpro.

Bertrand Meyer crea el lenguaje de programación Eiffel.

Adobe crea el PostScript.

El ruso Alexey Pazhitnov crea el juego Tetris.
1986

ISO estandariza SGML, lenguaje en que posteriormente se basaría XML.

Compaq lanza el primer computador basado en el procesador de 32 bits Intel
80386, adelantándose a IBM.

El lenguaje SQL es estandarizado por ANSI.

Aparece el programa de cálculo algebraico de computadora MathCad.

Se registra la primera patente base de codificación de lo que hoy conocemos
como MP3.

Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y
pequeña que su predecesora, usaba microprocesador de 8 MHz y 10MB de disco
duro, y fue 30% más barata que la IBM PC/AT con disco rígido.
1987

Se desarrolla la primera versión del actual protocolo X11.

Larry Wall crea el lenguaje de programación Perl.

El proyecto GNU crea el conjunto de compiladores llamado "GNU Compiler
Collection".

Compaq introdujo la primera PC basada en el nuevo microprocesador de Intel; el
80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM
no estaba usando este procesador. Compaq marcaba lo que se conocería como la
era de los clones de PC.
1988

Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.

Stephen Wolfram y su equipo sacan al mercado la primera versión del
programa Mathematica.

Aparece el primer documento que describe lo que hoy se conoce como firewalls.

Aparece el estándar XMS.
1989

Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.

T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en
sistemas operativos (threads).
1990

Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una
nueva manera de interactuar con Internet. También creó las bases del protocolo de
transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.

Se construye el primer prototipo de procesador óptico en AT&T (Laboratorios de
Bell).

Guido van Rossum crea el lenguaje de programación Python.
1991
Tux (Logo de Linux).

Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con
Unix.

Comienza a popularizarse la programación orientada a objetos.

Surge la primera versión del estándar Unicode.

Aparece la primera versión de Adobe Premiere.

Compaq puso a la venta al por menor con la Compaq Presario, y fue uno de los
primeros fabricantes en los mediados de los 90's en vender una PC de menos de
$1,000.Compaq se convirtió en una de los primeros fabricantes en usar micros
de AMD y Cyrix.
1992

Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el
nombre AXP, como reemplazo para la serie de microcomputadores VAX que
comúnmente utilizaban el sistema operativo VMS y que luego originaría
el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como
el más rápido del mundo.

Microsoft lanza Windows 3.1.

Aparece la primera versión del sistema operativo Solaris.

GNU comienza a utilizar el núcleo Linux.
1993

Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica,
llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría
del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a
la teleportación (teleportation).

Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de
32 bits (cliente-servidor) Windows NT.

Se crea la lista TOP500 que recopila los 500 ordenadores más potentes de la
tierra.
1994

Marc Andreessen crea el famoso navegador web Netscape Navigator.

Es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de
un grupo de CGI binarios escritos en el lenguaje C por el programador danéscanadiense Rasmus Lerdorf.
1995

Lanzamiento de Windows 95 por parte de Microsoft.

Aparece la primera versión de MySQL.

Inicia el desarrollo del servidor Apache.

La implementación original y de referencia del compilador, la máquina virtual y las
librerías de clases de Java fueron desarrollados por Sun Microsystems.

Se presenta públicamente el lenguaje de programación Ruby.

Se especifica la versión 1.5 del DVD, base actual del DVD.
1996

Se crea Internet2, más veloz que la Internet original.

Se publica la primera versión del navegador web Opera.

Se inicia el proyecto KDE.

La tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T.

Aparece la primera versión de SuperCollider.

Sabeer Bhatia y Jack Smith fundan HotMail.
1997

Es creado reproductor multimedia Winamp, cuya distribución es realizada
gratuitamente por la empresa estadounidense Nullsoft.

Aparece la primera versión pública de FlightGear.

Spencer Kimball y Peter Mattis crean la inicial librería GTK+.
1998

La W3C publica la primera versión de XML.

Es lanzado al mercado el sistema Windows 98 por parte de Microsoft.

Compaq adquirió Digital Equipment Corporation, la compañía líder en la anterior
generación de las computadoras durante los años 70 y principios de los 80. Esta
adquisición convertiría a Compaq en el segundo más grande fabricante de
computadoras, en términos de ingresos.

Larry Page y Sergey Brin fundan Google Inc.
1999
GNOME.

Aparece el entorno de escritorio GNOME.

Se publica la primera versión de MSN Messenger.

Surge Mac OS 9.
Siglo XXI
2000

Es presentado el prototipo de computador cuántico construido por un equipo de
investigadores de IBM.

Es lanzado el sistema operativo Windows 2000 por Microsoft.

Es lanzado el sistema operativo Windows Me por Microsoft.

Lanzamiento de Mac OS X.
2001

Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de
programación C#, que después fue aprobado como un estándar por
la ECMA e ISO.

Se lanza el sistema operativo Windows XP por parte de Microsoft.
2002

Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento
Phoenix.

Puesta en marcha del supercomputador Earth Simulator que sería el ordenador
más potente según el TOP500.
2005

Los usuarios de Internet con conexión de banda ancha superan a los usuarios de
internet con conexión vía módem en la mayoría de países desarrollados.

Se lanza el programa Google Earth.

Lanzamiento de Windows XP Media Center Edition

Puesta en funcionamiento del supercomputador MareNostrum en el BSC.

Creación de YouTube.
2006

Lanzamiento del sistema operativo de Microsoft Windows Vista

Entra en servicio el supercomputador Magerit perteneciente al CeSViMa.
2007

La empresa Dell lanza al mercado la primera computadora portátil (laptop) con
la distribución Linux Ubuntu preinstalada.

La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS
X Leopard 10.5
2008

Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más
delgada del mundo en ese momento.

Apple lanza el móvil más revolucionario de la historia en toda Europa y América,
el iPhone 3G .

Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para
móviles.

Lanzamiento del navegador Google Chrome.

Lanzamiento de KDE 4.0.

El supercomputador Roadrunner de IBM es el primero en superar
el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.
2009

Debian GNU/Linux 5.0

KDE 4.2 RC

Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard 10.6

El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.
2010

Se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por
la empresa Google y basado en Linux.

IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz

Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la
velocidad de transmisión de datos entre el dispositivo conectado y la computadora.

Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz
INTRODUCCIÓN
En la actualidad no se puede pensar en casi ninguna actividad en la cual no intervengan de
alguna manera los procesos de cómputo. Las computadorashan invadido la mayoría de las
labores del ser humano
El mundo está cambiando y usted deberá aprender todas esas, antes complicadas, hoy
comunes tecnologías modernas que le permitirán conseguir unempleo mejor retribuido y
quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar (teletrabajo),
reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades. La
mayoría de los gobiernos de los países en desarrollo han tomado muy en serio
los programas deeducación para crear en sus poblaciones una "cultura informática".
Definitivamente, las computadoras están cambiando nuestras vidas. Ahora hemos de
aprenderla para no quedar inmersos en una nueva forma deanalfabetismo. Lo anterior
contribuye a la creación de nuevos esquemas sociales que incluyen: novedosas maneras
de comercialización aprovechando las facilidades para comunicarse con todo el mundo a
través de Internet; la necesidad de crear leyes adecuadas a la realidad cibernética actual y,
sobre todo; la concepción de una nueva manera de relacionarse con nuestros semejantes,
que contemple una serie de normas éticas que regulen la convivencia pacifica y cordial
entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para
realizar su trabajo, estudio, descanso y esparcimiento diarios.
PRÓLOGO
Hoy día todos los habitantes del mundo somos dependientes directos o indirectos del uso
de las computadoras, como en oficinas bancarias, grandes y medianos comercios, centros
de enseñanza, oficinas de ventas y reservaciones para viajes, clínicas médicas u hospitales,
fabricas y almacenesindustriales, organismos de gobierno y oficinas administrativas,
laboratorios, y centros de investigación. Estas máquinas maravillosas inventadas por el
hombre, tal como ahora las concebimos, son el resultado de una secuencia de eventos que el
transcurso de esta investigación conoceremos.
Para saber mas acerca de estos eventos en esta investigación mostraremos las diferentes
generaciones por las que ha pasado el mundo de lacomputación, esta larga historia es
necesario mencionar las épocas y los personajes gracias a cuyos valiosos aportes a través del
tiempo, hicieron posible la gestación de la hoy llamada Era de la Computación, la cual sin
lugar a dudas es el resultado de un largo proceso evolutivo que jamás cesará.
MARCO TEÓRICO
PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información.
Los operadores ingresaban los datos y programas en códigoespecial por medio
de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba
rápidamente, sobre el cual un dispositivo delectura/escritura colocaba marcas magnéticas.
Esas computadoras de bulbos eran mucho más grandes y generaban más calor que
los modeloscontemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación
formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó
para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento
de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como
rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no
había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la
IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en
un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM
650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las
computadoras. La administración de la IBM asumió un gran riesgo y estimó una ventade 50
computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa
época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque
caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias
privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban
como líderes en la fabricación de computadoras.
SEGUNDA GENERACIÓN (1959-1964)
Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas,
más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía
siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la
segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores
giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse datos e
instrucciones.
Los programas de computadoras también mejoraron. El COBOL (COmmon Busines
Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible
comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad
de programas entre diferentes computadoras; es decir, es uno de los primeros programas
que se pueden ejecutar en diversos equipos de computo después de un sencillo
procesamiento de compilación. Los programas escritos para una computadora podían
transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en
1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL
(Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El
escribir un programa ya no requería entender plenamente el hardware de la computación.
Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que
las de bulbos, y se usaban para nuevas aplicaciones, como en lossistemas para reservación
en líneas aéreas, control de tráfico aéreo y simulaciones para uso general.
Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento
de registros, como manejo de inventarios, nómina y contabilidad.
La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer
simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor
durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC,
HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como
el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401,
las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las
RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas
otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta
generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM
Stretch (1961).
TERCERA GENERACIÓN (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación,
Minicomputadora.
Las computadoras de la tercera generación
emergieron con el desarrollo de
los circuitos integrados (pastillas de silicio) en las
cuales se colocan miles de componentes
electrónicos, en una integración en miniatura.
Las computadoras nuevamente se hicieron más
pequeñas, más rápidas, desprendían menos calor
y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito
Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así
como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon
ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de
computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas
para aplicacionesmatemáticas o de negocios, pero no para las dos cosas. Los circuitos
integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los
programas, y estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados,
podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la
impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina
causó tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600,
que se consideró como la más poderosa de las computadoras de la época, ya que tenía la
capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas
de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas
perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades
respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían
todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que
proporcionaban la capacidad de correr más de un programa de manera simultánea
(multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al
mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el
70% del mercado, para evitar competir directamente con IBM la empresa Digital
Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho
menos costosas de comprar y de operar que las computadoras grandes, las
minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron
sumador auge entre 1960 y 70.
CUARTA GENERACIÓN (1971 a 1981)
Microprocesador , Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación:
el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la
colocación de Muchos más componentes en un Chip: producto de la microminiaturización
de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo
posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una
pequeña compañía fabricante
de semiconductores ubicada en Silicon Valley,
presenta el primer microprocesador o Chip de 4
bits, que en un espacio de aproximadamente 4
x 5 mm contenía 2 250 transistores. Este
primer microprocesador que se muestra en la
figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco,
que por su granproducción de silicio, a partir de 1960 se convierte en una zona totalmente
industrializada donde se asienta una gran cantidad de empresas fabricantes de
semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la
región más importante para las industrias relativas a la computación: creación de
programas y fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o
computadoras personales, que utilizando diferentes estructuraso arquitecturas se pelean
literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno
de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran
sorprendentes avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos
realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras,
entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y
Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con
su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de
PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS
(MicroSoft Disk Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en
los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II,
Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y
las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias
a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este
último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc
tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation,
conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad
de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de
usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y
menús desplegables que facilitan las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del sistema operativo para
realizaroperaciones de copiado o formato con una simple pulsación de cualquier botón del
ratón (mouse) sobre uno de los iconos o menús.
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque
los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a
mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han
terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta.
Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e
informática, podemos puntualizar algunas fechas y características de lo que podría ser la
quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y
computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas
expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras
ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las
bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el
inicio de dicha generación: la creación en 1982 de la primera supercomputadora con
capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde
1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por
parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el
acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar
en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de
trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con
varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo
una programación especial que permita asignar diferentes tareas de un mismo proceso a los
diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los
procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar
módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no
quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia
artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una
gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz
e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural
eirán adquiriendo la habilidad para tomar decisiones con base en procesos
de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.
El almacenamiento de información se realiza en
dispositivos magneto ópticos con capacidades de decenas de
Gigabytes; se establece el DVD (Digital Video Disk o Digital
Versatile Disk) como estándar para el almacenamiento de
video y sonido; la capacidad de almacenamiento de datos
crece de manera exponencial posibilitando guardar más
información en una de estas unidades, que toda la que había
en la Biblioteca de Alejandría. Los componentes de los
microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas
VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se
distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente,
no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso,
quizás momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta
generación, es la conectividad entre computadoras, que a partir de 1994, con el
advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital
en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de
computadoras.
El propósito de la Inteligencia Artificial es equipar a las
Computadoras con "Inteligencia Humana" y con la capacidad de
razonar para encontrar soluciones. Otro factor fundamental
del diseño, la capacidad de la Computadora para reconocer
patrones y secuencias de procesamiento que haya encontrado
previamente, (programación Heurística) que permita a la
Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a partir de
sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del
razonamiento y conservará esos resultados para posteriores tareas de procesamiento y
toma de decisiones.
SEXTA GENERACIÓN 1990 HASTA LA FECHA
Como supuestamente la sexta generación de computadoras está en marcha
desde principios de los años noventas, debemos por lo menos, esbozar las características
que deben tener las computadoras de esta generación. También se mencionan algunos de
los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo
XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo
/ Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se
han creado computadoras capaces de realizar más de un millón de millones de operaciones
aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area
Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación
a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías
de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son:
inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores
ópticos, etcétera.
CONCLUSION
En esta investigación acerca de las generaciones de las computadoras nos hemos dado
cuenta del avance que han tenidos y , gracias a los avances en relación a ellas hemos
alcanzado un nivel de tecnología muy elevado el cual nos ha servido para muchas áreas,
como por ejemplo las comunicaciones, lamedicina, la educación, etc.
La investigación actual va dirigida a aumentar la velocidad y capacidad de las
computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados
y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido
circuitos integrados a gran escala que contienen varios millones de componentes en un solo
chip.
Las computadoras se han convertido en la principal herramienta utilizada por el hombre y
ya son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes
complicadas hoy comunes tecnologías modernas.
10. SUMARY
THE FIRST GENERATION
The computers of the first Generation used bulbs to try information. These computers of
bulbs were much bigger and were generating more heat that the contemporary models.
I construct the UNIVAC I, which the Committee of the census used to evaluate the census of
1950 It (He,She) began then to construct electronic computers and his(her,your) first entry
was with the IBM 701 in 1953.
THE SECOND GENERATION
The invention of the transistor there made possible a new Generation of computers, more
rapid, smaller and with minor needs of ventilation. Nevertheless the cost continued being a
significant portion of the budget of a Company. The computers of the second generation
also were using networks(nets) of magnetic cores(nucleuses) instead of gyratory drums for
the primary storage.
The programs of computers also improved. The COBOL (COmmon Busines Oriented
Languaje) Grace Murria Hooper (1906-1992), who in 1952 habia invented the first collector
was one of CODASYL's principal figures (Committee on Dates SYstems Languages), The
companies began to apply the computers to tasks of storage of records, as managing of
inventories, list and accounting.
THIRD GENERATION
The computers of the third party generation emerged with the development of the
integrated circuits (silicon tablets) in which there are placed thousands of electronic
components, in an integration in miniature. The computers again became smaller, more
rapid, they were detaching less heat and were energetically more efficient.
The discovery in 1958 of the first Integrated Circuit (Chip) for the engineer Jack S. Kilby
(born in 1928) of Texas Instruments,
They start using the magnetic means of storage, as magnetic tapes
FOURTH GENERATION
Two improvements in the technology of the computers mark the beginning of the fourth
generation: the replacement of the memories (reports) with magnetic cores(nucleuses), for
those of silicon chips and the placement of Many(Many people) more components in a
Chip.
This generation of computers was characterized by big technological advances realized in a
very short time. In 1977 the first microcomputers appear. IBM and his(her,your)
compatible so called clowns, made by infinity of companies with base in the processors
8088, 8086, 80286, 80386, 80486, 80586 or Pentium, Pentium II, Pentium III and
Celeron de Intel and in the second term(end) Apple Computer, with his(her,your)
Macintosh and the Power Macintosh, which have great capacity of generation of graphs and
sounds thanks to his(her,your) powerful processors Motorola series 68000 and PowerPC,
respectively.
FIFTH GENERATION
It is necessary to mention two big technological advances, which serve as parameter for the
beginning of the above mentioned generation: the creation in 1982 of the first
supercomputer with capacity of parallel process, designed by Seymouy Cray, who already
was experimenting from 1968 with supercomputers, and that founds in 1976 the Cray
Research Inc.; and the advertisement on the part of the Japanese government of the project
" fifth generation ", who as(according to) was established in the agreement by six of the
biggest Japanese companies of computation, should end in 1992.
According to this project, to which the countries added technologically more advanced not
to stay behind of Japan, the principal characteristic would be the application of the artificial
intelligence (To, Artificial Intelligence).
Conectividad between(among) computers, that from 1994, with the advent of the
network(net) Internet and of the World Wide Web
SIXTH GENERATION
Since supposedly the sixth generation of computers is in march from beginning of the years
nonsales, we have to at least, outline the characteristics that must have the computers of
this generation. Also there are mentioned some of the technological advances of last decade
of the 20th century and what expects to be achieved in the 21st century.
Hundreds of microprocessors vectoriales working at the same time, the networks (nets) of
world area (Wide Area Network, WAN) they will continue growing desorbitadamente
GLOSARIO
BIT: (dígito binario) un dígito simple de un numero binario (1 ó 0)
BYTE: Grupo de bits adyacentes operados como una unidad,
COMPILADOR: Programa de computadora que produce un programa en lenguaje de
maquina, de un programa fuente que generalmente esta escrito por el programador en un
lenguaje de alto nivel.
CÓDIGO MAQUINA: para que se pueda ejecutar un programa, debe estar en lenguaje de
maquina de la computadora que lo esta ejecutando.
CHIP: 1. Pastilla. 2. Plaqueta. 3. Pequeña pieza de silicio o algún otro material
semiconductor, que contiene en su interior un circuito integrado. Por su propia naturaleza,
chip es sinónimo de circuito integrado.
CIRCUITO INTEGRADO: 1. Chip 2. Sistema de circuitos interrelacionados, almacenados
en una pequeña tableta o pastilla de silicio.
COMPUTADORA: Máquina o dispositivo capaz de recibir información, procesarla y
entregar resultados en la forma deseada. 2. Equipo electrónico (Hardware) que recibe
instrucciones en forma de pro gramas (Software) para resolver diferentes tareas utilizando
algoritmos.
COMPUTADORA DIGITAL: Computadora que opera sobre datos discretos o
discontinuos; en otras palabras, sobre dígitos binarios (ceros y unos) representados por
impulsos eléctricos. Esto contrasta con las computadoras analógicas, las cuales operan
sobre variables continuas como latemperatura o la presión estableciendo analogías entre las
variaciones y los datos. La mayoría de las computadoras actuales son de tipo digital.
COMPUTADORA PERSONAL (PC): Microcomputadora destinada a trabajo individual
o de escritorio. 2. Sistema individual de escritorio, portátil o de portafolio que consta
de monitor, unidad central de procesamiento y teclado. El nombre de Personal Computer
(PC) lo dio IBM a sus microcomputadoras de escritorio, y es como se conoce a las
computadoras con tecnología IBM y a sus clones o compatibles. Actualmente tienen una
gran capacidad de procesamiento, comparable con las minis o macro computadoras
utilizadas por bancos, centros de investigación e industria en general.
DATOS: Símbolos, letras, números o hechos aislados que pueden ser leídos y procesados
por una computadora para producir información.
EQUIPO HARDWARE: Componentes mecánicos, eléctricos, magnéticos y electrónicos de
una computadora o sistema de cómputo. 2. Los componentes físicos de un sistema de
cómputo, en contrapartida con el software, que es intangible.
FIBRA ÓPTICA: Delgadísimo filamento transparente hecho de material dieléctrico
como vidrio o plástico, que tiene una enorme capacidad de transmisión de la luz mediante
impulsos luminosos; esto es, en comunicaciones se está en posibilidad de transmitir
millones de bits por segundo utilizando estos útiles medios.
HARDWARE: Es la parte tangible del computador.
INFORMACION: Es lo que se obtiene del procesamiento de datos, es el resultado final.
INFORMÁTICA: El término es acrónimo de INFORmación au toMATICA, que significa:
todo aquello que tiene relación con el procesamiento de datos, utilizando las computadoras
o los equipos de procesamiento automático de información. En Estados Unidos no es muy
conocido el término, que se toma como sinónimo de lnformation Technology (IT).
INTELIGENCIA ARTIFICIAL (Al): 1. Rama de la ciencia de la computación que intenta
entender la naturaleza de la inteligencia para producir nuevos tipos de máquinas o
programas inteligentes. 2. Emulación mediante sistemas de cómputo, de situaciones
asociadas con la inteligencia y elcomportamiento humanos como el razonamiento, el
aprendizaje y la auto-superación.
LENGUAJE BINARIO: Código o len guaje utilizado en computación, en el cual
la codificación de datos se realiza únicamente mediante bits; es decir unos y ceros.
MICROCOMPUTADORA: Pequeña computadora que utiliza uno o más microprocesadores
para realizarlos procesos de cálculo. Generalmente consta de unidades de entrada y salida
como teclado y monitor respectivamente, y unidades de almacenamiento secundario de
información.
MICROPROCESADOR: Unidad Central de Procesamiento (CPU) de una computadora,
ubicada en el interior de uno o varios chips. 2. Pequeño y complejo procesador central de
una computadora compuesto de una gran cantidad de microcircuitos encapsulados en una
sola unidad.
MULTIPROGRAMACION: En un sistema multiprogramado la memoria principal alberga a
más de un programa de usuario.
PROGRAMA: Es una colección de instrucciones que indican a la computadora que debe
hacer. Un programa se denomina software, por lo tanto, programa, software e instrucción
son sinónimos.
PROGRAMA FUENTE: Instrucción escrita por el programador en un lenguaje de
programación para plantear al computador el proceso que debe ejecutar.
PROGRAMACIÓN: Proceso de escribir una secuencia de pasos o instrucciones que
permiten resolver un problema o tarea específica, auxiliado por el planteamiento de
un algoritmo. 2. Pasos que si siguen para crear un programa: diseño, codificaciòn escritura,
modificación, depuración, compilación oinducción del código al lenguaje de la máquina, y
del programa.
PROGRAMAS SOFTWARE: lnstrucciones, funciones y comandos que integran un
programa para controlar. El software o programa es una creación intelectual que no
depende absolutamente del equipo físico sobre el cual trabaja. Es la parte intangible de la
computación, pero al fin y al cabo, la parte más importante, porque ninguna computadora
hace nada para lo que no haya sido programada. Los programas de propósito específico,
como los procesadores de textos o los manejadores de bases de datos se conocen como
software de aplicación. Los sistemas operativos constituyen una claseespecial de programas
de control.
SISTEMA OPERATIVO: Programa o grupo de programas que permiten controlar las
operaciones de la computadora.
SISTEMAS EXPERTOS: Sistemas desarrollados mediante las técnicas de inteligencia
artificial para resolución de problemas específicos.
SOFTWARE: Conjunto de programas, documentos, procesamientos y rutinas asociadas con
la operación de un sistema de computadoras, es decir, la parte intangible de computador.
TUBO DE VACÍO. Tubo electrónico que se utiliza como amplificador o conmutador,
controlando el flujo de electrones en su interior, al vacío.
TRANSISTOR: Dispositivo electrónico que sirve como amplificador de señal o controlador
de interrupción (conmutador).
TARJETA PERFORADA: Tenía un alambre que pasaba a través de los huecos dentro de una
copa de mercurio debajo de la tarjeta, cerrando de este modo el circuito eléctrico. Este
proceso disparaba unos contadores mecánicos y ordenaba los recipientes de las tarjetas,
tabulando así en forma apropiada la información
Antecedentes de la computadora
Enviado por becu211284
Anuncios Google
Conecta En Facebook
Encuentra A Tus Amigos En Facebook Unete Ahora Para Conectar Con
ellos www.Facebook.com
Cursos de Informática
Encuentra Excelentes Universidades Cerca De Ti en Segundos Aquí! www.DestinoEducacion.com.mx
Portátil Dell™ Vostro™ MX
¡Durabilidad, Poder y Protección! Conozca la Portátil para
Empresas. Dell.com/MX/Vostro
Indice
1. El Abaco
2. La Pascalina
3. Historia de la computadora
4. La máquina analítica
6. Circuitos integrados
7. Generaciones De La Computadora
8. Pioneros de la computación
1. El Abaco
Quizás fue el primer dispositivo mecánico de contabilidad que existió. Se ha
calculado que tuvo su origen hace al menos 5000 años y su efectividad ha
soportado la prueba del tiempo.
2. La Pascalina
El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las ideas para una
sumadora mecánica. Siglo y medio después, el filósofo y matemático francés
Blas Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. Se le
llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A
pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la
Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos,
resultaba más costosa que la labor humana para los cálculos aritméticos.
3. Historia de la computadora
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue
inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo
utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes
representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que
podían sumarse números haciéndolas avanzar el número de dientes correcto. En
1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó
delgadas placas de madera perforadas para controlar el tejido utilizado en los
diseños complejos. Durante la década de 1880 el estadístico estadounidense
Herman Hollerith concibió la idea de utilizar tarjetasperforadas, similares a las
placas de Jacquard, para procesar datos. Hollerith consiguió compilar
la información estadística destinada al censo depoblación de 1890 de Estados
Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas
sobre contactos eléctricos.
4. La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage
elaboró los principios de la computadora digital moderna. Inventó una serie
de máquinas, como la máquina diferencial, diseñadas para
solucionar problemas matemáticos complejos. Muchos historiadores consideran a
Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija
del poeta inglés Lord Byron, como a los verdaderos inventores de
lacomputadora digital moderna. La tecnología de aquella época no era capaz de
trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la
máquina analítica, ya tenía muchas de las características de un ordenador
moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una memoria para guardar los datos, un procesador para
las operaciones matemáticas y una impresora para hacer permanente el registro.
5. Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios.
Con estas máquinas se evaluaban las aproximaciones numéricas
de ecuaciones demasiado difíciles como para poder ser resueltas mediante
otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde
eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el
manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos
que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró
el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de
1943 el Colossus, que incorporaba 1.500 válvulaso tubos de vacío, era ya operativo.
Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes
de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto,
John Atanasoff y Clifford Berry ya habían construido un prototipo de
máquina electrónica en el Iowa State College (EEUU) Este prototipo y
las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron
eclipsadas por eldesarrollo del Calculador e integrador numérico digital electrónico
(ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran
medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical
Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas
más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos
de multiplicaciones por minuto, pero su programa estaba conectado al procesador y
debía ser modificado manualmente. Se construyó un sucesor del ENIAC con
un almacenamiento de programa que estaba basado en los conceptos del
matemático húngaro-estadounidense John von Neumann. Las instrucciones se
almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las
limitaciones de velocidad del lector de cinta de papel durante la ejecución y
permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el
advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que
permitían las máquinas con válvulas. Como los transistores utilizan mucha menos
energía y tienen una vida útil más prolongada, a su desarrollo se debió el
nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores
o computadoras de segunda generación. Los componentes se hicieron más
pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema
resultaba más barata.
6. Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la
fabricación de varios transistores en un único sustrato de silicio en el que los cables
de interconexión iban soldados. El circuito integrado permitió una posterior
reducción del precio, el tamaño y los porcentajes de error. El microprocesador se
convirtió en una realidad a mediados de la década de 1970, con la introducción del
circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y,
más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very
Large Scale Integrated), con varios miles de transistores interconectados soldados
sobre un único sustrato de silicio.
7. Generaciones De La Computadora
Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las
computadoras, se consideran las siguientes divisiones como generaciones aisladas
con características propias de cada una, las cuáles se enuncian a continuación.
Primera Generación
Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una
vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador
ENIAC de grandes dimensiones (30 toneladas)
Almacenamiento de la información en tambor magnético interior.
Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba
los datos y los programas que se le suministraban.
Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y
unos, por lo que la programación resultaba larga y compleja.
Alto costo.
Uso de tarjetas perforadas para suministrar datos y los programas.
Segunda Generación
Transistores
Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran
más económicas, más pequeñas que las válvulas miniaturizadas consumían menos
y producían menos calor. Por todos estos motivos, la densidad del circuito podía ser
aumentada sensiblemente, lo que quería decir que los componentes podían
colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.
Tercera Generación
Circuito integrado (chips)
Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
Generalización de lenguajes de programación de alto nivel. Compatibilidad para
compartir software entre diversos equipos.
Cuarta Generación
Microcircuito integrado
El microprocesador: el proceso de reducción del tamaño de los componentes llega a
operar a escalas microscópicas. La microminiaturización permite construir el
microprocesador, circuito integrado que rige las funciones fundamentales del
ordenador.
Quinta Generación Y La Inteligencia Artificial
El propósito de la Inteligencia Artificial es equipar a las Computadoras con
"Inteligencia Humana" y con la capacidad de razonar para encontrarsoluciones.
Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer
patrones y secuencias de procesamiento que haya encontrado previamente,
(programación Heurística) que permita a la Computadora recordar resultados
previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a
partir de sus propias experiencias usará sus Datos originales para obtener la
respuesta por medio del razonamiento y conservará esos resultados para
posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién
adquirido le servirá como base para la próxima serie de soluciones.
8. Pioneros de la computación
Atanasoff Y Berry
Una antigua patente de un dispositivo que mucha gente creyó que era la primera
computadora digital electrónica, se invalidó en 1973 por orden de un tribunal
federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la
computadora digital electrónica. El Dr. Atanasoff, catedrático de
la Universidad Estatal de Iowa, desarrolló la primera computadora digital
electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora
Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer) Un estudiante graduado,
Clifford Berry, fue una útil ayuda en la construcciónde la computadora ABC.
Algunos autores consideran que no hay una sola persona a la que se le pueda
atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas
personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa
aparece una placa con la siguiente leyenda: "La primera computadora digital
electrónica de operación automática del mundo, fue construida en este edificio en
1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la
Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante
graduado de física."
Pascal
Fue el primero en diseñar y construir una máquina sumadora. Quería ayudar a su
padre, quien era cobrador de impuestos, con los cálculos aritméticos. La máquina
era mecánica y tenía un sistema de engranes cada uno con 10 dientes; en cada
diente había grabado un dígito entre el 0 y el 9. Así para representar un número, el
engrane del extremo derecho se movía hasta tener el dígito de las unidades, el
engrane que le seguía a la izquierda tenía el dígito de las decenas, el siguiente el de
las centenas y así sucesivamente. Los números se representaban en la máquina
como nosotros lo hacemos en notación decimal.
Para realizar una suma o una resta, se activaba el sistema de engranes que hacía
girar cada uno de ellos. Comenzaba por el extremo derecho y seguía, uno por uno,
hacia la izquierda. Cuando la suma en un engrane excedía el número 9,
automáticamente el engrane inmediato a la izquierda se movía un décimo de vuelta
aumentando en 1 la cantidad que representaba. Así Blaise Pascal logró resolver el
problema del acarreo de dígitos para las máquinas sumadoras y obtuvo una
máquina que podía sumar cualquier par de números.
Charles Babagge
Sus máquinas y su legado
El Babbage del que todo mundo ha leído es, sin embargo, el inventor fracasado que
se pasó toda su vida intentando construir la primera computadora de uso general
de la historia y que, pese a haber fracasado, hizo aportaciones muy significativas al
desarrollo de la informática.
Muchas son las visiones románticas y hasta un tanto fantasiosas que se han escrito
sobre la vida de Babbage. Mucho es lo que se ha dicho sobre sus "maravillosas
máquinas", pero también mucha es la confusión que se ha desarrollado en torno a
sus verdaderas aportaciones y a las razones por las que nunca pudo completar la
construcción de las mismas.
Wilkes nos ofrece quizá una de las visiones menos apasionadas del genio de
Babbage, y nos hace ver que realmente la primera máquina que Babbage intentaba
construir, llamada Máquina Diferencial (Difference Engine) sólo era capaz de
tabular polinomios, y que requería, de cualquier manera, bastante trabajo con lápiz
y papel. La idea no era realmente tan buena como Babbage pensaba, pero él nunca
lo hubiera admitido. Sin embargo, este proyecto tuvo un impacto muy importante
en la investigación aplicada en Inglaterra, pues el gobierno británico decidió
financiarlo con una fuerte suma de dinero, en su afán de perfeccionar la impresión
de las tablas de navegación, tan comunes en aquella época. Joseph Clement, tal vez
el mejor fabricante de herramientas del Reino Unido, fue asignado para trabajar
con Babbage en el diseño de esta máquina. Sin embargo, tras una fuerte disputa
Babbage acabó quedándose solo y sin un centavo de las £34,000 que invirtió en el
proyecto después de 10 años de intenso trabajo. Se ha especulado que la máquina
nunca se construyó porque todavía no se contaba con la tecnología necesaria, pero
eso no parece ser cierto, dado que Georg y Edvard Scheutz, dos ingenieros Suecos
que leyeron un artículo sobre la máquina de Babbage, fueron capaces de construir
una Máquina Diferencial unos 10 años después de que el proyecto original se
abandonara. La máquina funcionó y fue vendida al Observatorio Dudley en Nueva
York, aunque se dice que nunca lo hizo muy bien y por ello pronto cayó en desuso.
Una réplica de esta máquina se conserva en la oficina del Censo de Londres.
Realmente, la aportación clave de Babbage a la computación moderna vino con su
siguiente máquina: La Máquina Analítica (Analytical Engine), el cual, de haberse
construido, habría sido efectivamente la primera computadora de uso general de la
historia. Babbage empezó a trabajar en este nuevo proyecto en 1834, pese a su
fracaso con su máquina anterior, y continuó haciéndolo durante toda su vida.
Su modelo fue refinado muchas veces, y a lo largo de este proceso, Babbage tuvo
muchas ideas visionarias sobre las computadoras. Por ejemplo, sugirió el uso de
tarjetas perforadas para controlar su máquina, y anticipó el uso de las mismas para
representar un algoritmo e incluso inventó el concepto de bucles o ciclos en
programación. También anticipó el uso de microprogramación, aunque dejó huecos
importantes en su trabajo, y falló en anticipar cuestiones tan obvias hoy en día
como es el uso de variables en un programa. Todo este trabajo, habría permanecido
prácticamente desconocido por años de no haber sido por Ada, Condesa de
Lovelace, la hija del famoso poeta Lord Byron, de quien hablaremos la próxima
ocasión, que se dio a la tarea de difundir las ideas de Babbage sobre su máquina. Se
ha llegado a decir sobre la Máquina Analítica, que sería injusto afirmar que
Babbage fracasó también en su intento por construirla, pues nunca intentó
realmente hacerlo, sabedor de que resultaría prácticamente imposible volver a
conseguir fondos para financiar tal proyecto. Sin embargo, sus planos y notas
fueron tan detallados que en 1991 el Museo Nacional de Ciencia y Tecnología de
Londres construyó una máquina basándose en ellos y usando sólo materiales y
herramientas disponibles en la época de Babbage. La máquina ha funcionado desde
entonces, sin ningún problema. ¿Por qué no pudo entonces Babbage lograr
fructificar su sueño? La respuesta sigue siendo un misterio. Hay quienes dicen que
le faltó habilidad política para negociar con el gobierno, pero la verdad es que
después de haberse gastado una fortuna y no recibir nada a cambio, creo que el
gobierno de cualquier país se mostraría reacio a seguir invirtiendo en el mismo
proyecto. Tal vez la verdadera razón haya sido la naturaleza idealista de Babbage
que le impedía materializar muchas de sus maravillosas visiones, a la luz de su
obsesión por lo perfecto.
Babbage nunca tuvo miedo a ser olvidado ni se sintió decepcionado por la
indiferencia que sus contemporáneos mostraron por su trabajo. Cerca del final de
su vida escribió: "No tengo miedo de dejar mi reputación a cargo de aquel que
tenga éxito construyendo mi Máquina Analítica, porque él y sólo él será capaz de
apreciar totalmente la naturaleza de mi esfuerzo y el valor de sus resultados". Nada
más cierto que eso, puesto que a pesar de que Charles Babbage murió en total
soledad la mañana del 18 de octubre de 1871 a sólo 2 meses de volverse un
octogenario, sus aportaciones serían realmente apreciadas sólo hasta que las
primeras computadoras digitales fueron construidas, a mediados del presente siglo.
Sus experimentos dejarían huella profunda en el trabajo sobre autómatas
del español Leonardo Torres de Quevedo a principios de este siglo; posiblemente la
idea de Herman Hollerith de usar tarjetas perforadas fue derivada por la sugerencia
de Babbage, y se ha llegado a especular que la Máquina Analítica pudo haber sido
incluso la fuente principal de inspiración del modelo teórico de la computadora
moderna desarrollado por el matemático Alan Turing y que hoy se conoce como
"máquina de Turing". Con tan convincente evidencia de la importancia de sus ideas
tal vez no importe tanto que Babbage no haya logrado construir sus máquinas
después de todo, pues sus aportaciones resultaron igualmente significativas de
cualquier forma.
Se sabe que Babbage nunca recibió remuneración alguna por su trabajo de 10 años
en la Máquina Diferencial, por lo que el Parlamento Inglés decidió ofrecerle un
título de nobleza a cambio (le ofrecieron el título de Barón) Babbage rehusó
aceptarlo, pidiendo mejor una pensión vitalicia que nunca le fue concedida. ¿Un
error de apreciación? No realmente, si consideramos que lo que realmente recibió a
cambió del trabajo de toda una vida fue algo más valioso que cualquier título de
nobleza: un sitio privilegiado en la historia de la informática, el de padre de la
computación moderna.
Gottfried Wihelm Leibniz
Demostró las ventajas de utilizar el sistema binario en lugar del decimal en las
computadoras mecánicas.
Inventó y construyó una máquina aritmética que realizaba las cuatro operaciones
básicas y calculaba raíces cuadradas.
Nació el 1 de julio de 1646 en Leipzig, Sajonia (ahora Alemania)
Murió el 14 de noviembre de 1716 en Hannover, Hannover (ahora Alemania)
Leibniz ha sido uno de los más grandes matemáticos de la historia, se le reconoce
como uno de los creadores del Cálculo Diferencial e Integral; pero fue
un hombre universal que trabajó en varias disciplinas: lógica,
mecánica, geología, jurisprudencia, historia, lingüística y teología.
Inventó una máquina aritmética que empezó a diseñar en 1671 y terminó de
construir en 1694; era una máquina mucho más avanzada que la que había
inventado Pascal y a la que llamó "calculadora secuencial o por pasos", en alemán:
"dice Getrocknetsrechenmaschine". La máquina no sólo sumaba y restaba, sino que
además podía multiplicar, dividir y sacar raíz cuadrada. Sin embargo, en esa época
el desarrollo de la técnica no se encontraba en condiciones de producir en serie las
piezas de gran precisión indispensables para el funcionamiento de la máquina.
El modelo que construyó Leibniz nunca funcionó correctamente; sin embargo, en
1794 se construyó un modelo funcional de la calculadora de Leibniz que
actualmente se exhibe en la Real Sociedad de Londres. Esta última máquina
tampoco resultó confiable y no fue sino hasta 1820 cuando se fabricó un aparato
infalible y comercial capaz de realizar las cuatro operaciones aritméticas
fundamentales.
John Von Neumann : un genio incomparable
Su interés por la computación
Con el advenimiento de la Segunda Guerra Mundial, von Neumann hubo de
abandonar sus estudios en matemáticas puras, y concentrarse en problemas más
prácticos para servir al Gobierno del que ahora era nacional. Fue consultor
en proyectos de balística, en ondas de detonación, y eventualmente, se involucró en
el desarrollo de la bomba atómica, en donde demostró la factibilidad de la técnica
de implosión que más tarde se usaría en la bomba que detonó en Nagasaki. Sin
embargo, debido a su valía como consultor en otras agencias gubernamentales
ligadas a la guerra, von Neumann fue uno de los pocos científicos a quien no se le
requirió permanecer de tiempo completo en Los Álamos. Fue precisamente durante
la primera mitad de 1943, en plena guerra, que se interesó por primera vez en la
computación. Tras un viaje a Inglaterra, le dijo a Voblen que creía sumamente
importante que se utilizaran máquinas para acelerar los complejos cálculos
involucrados con su trabajo. Aunque comenzaron a utilizar equipo de IBM, éste no
satisfizo las necesidades del Proyecto Manhattan, y von Neumann empezó pronto a
buscar opciones en otros lados. En 1944 sólo había unos pocos proyectos para
desarrollar computadoras en los Estados Unidos: Howard Aiken en Harvard,
George Stibitz en Laboratorios Bell, Jan Schilt en la Universidad Columbia, y
Presper Eckert y John W. Mauchly, en la Universidad de Pennsylvania. Aunque von
Neumann contactó a los 3 primeros científicos y estuvo en contacto con sus
máquinas, la única computadora con la que realmente se involucró a fondo fue la
última, llamada ENIAC (Electronic Numerical Integrator and Computer), que
durante mucho tiempo fue ignorada por la comunidad científica, y que con el apoyo
de von Neumann fue finalmente tomada en serio hasta convertirse en un proyecto
de primera línea. Curiosamente, la ENIAC tenía una arquitectura en paralelo,
aunque casi carecía de memoria (sólo podía almacenar 20 palabras), y otra
máquina más ambiciosa, llamada EDVAC (Electronic Discrete Variable Arithmetic
Computer) nació del deseo de sus diseñadores de construir una máquina "más útil"
que operara en serie. Desgraciadamente, la reputación de von Neumann tenía
también su lado negativo, y debido a una indiscreción a la prensa y al hecho de que
firmó como autor único un borrador del EDVAC, el proyecto no sólo perdió su
status de secreto, sino que se volvió objeto de una enorme controversia, pues
Mauchly y Eckert no sólo se disgustaron mucho por no haber recibido el crédito
debido, sino que fueron despedidos de la Universidad de Pennsylvania ante su
negativa de ceder a la institución los derechos del ENIAC. Este error le costó a la
Universidad de Pennsylvania el perder su status de universidad de primer nivel en
los Estados Unidos, y todavía hoy se recuerda a éste como uno de sus peores
momentos históricos. Eventualmente, la guerra terminó, el EDVAC se volvió
del dominiopúblico, Mauchly y Eckert fundaron su propia empresa y von Neumann
regresó a Princeton con el sueño de construir su propia máquina.
Sus Últimos Años
Debido a los tropiezos que tuvo inicialmente para conseguir dinero para construir
su computadora, varias universidades le ofrecieron trabajo a von Neumann después
de la guerra, y aunque estuvo cerca de aceptar al menos una de estas ofertas, fue
leal al IEA, y finalmente logró conseguir los fondos que necesitaba para su proyecto
con ayuda de Princeton y la RCA. Su idea era construir una máquina similar a
EDVAC pero más poderosa y más rápida. La computadora IAS fue eventualmente
construida en los 50s, y su diseño ha servido como inspiración para la mayoría de
las computadoras modernas, si bien la arquitectura que hoy recibe su nombre no
fue realmente producto de su inventiva. Sus principales contribuciones en
computación fueron: la noción del uso de monitores para visualizar datos, la
invención del diagrama de flujo, la teoría de los autómatas celulares,
incontables técnicas de cómputo matemático, fue co-autor de la teoría
de juegos que dio pie al famoso método de Montecarlo, y fue co-autor del otrora
famoso libro: "Cybernetics: Or Control and Communication in the Animal and the
Machine" en el que explicaba junto con Norbert Wiener la manera en que los
cerebros electrónicos podrían efectuar tareas humanas de diferentes grados de
dificultad.
En octubre de 1954 se volvió miembro de la Comisión de Energía Atómica, por lo
que se tuvo que mudar junto con su esposa a Georgetown, en Washington, D.C. A la
vez, sirvió como consultor para la IBM, en donde conoció a John Backus mientras
desarrollaba el FORTRAN. Curiosamente, von Neumann desdeñó el trabajo de
Backus pensando que nadie requeriría jamás usar un lenguaje de programación de
más alto nivel que el lenguaje binario que él tan bien conocía. En el verano de ese
mismo año, se lastimó el hombro izquierdo en una caída, y en la cirugía posterior se
descubrió que tenía cáncer en los huesos. Pese a saberse cerca de la muerte,
continuó con su tremendo ritmo de trabajo, y en sus últimos días el secretario de
defensa, y los secretarios del ejército, la marina y la fuerza aérea norteamericanas,
se daban cita alrededor de la cama de von Neumann en el hospital Water Reed en
Washington, D.C. Sólo médicos y personal con autorización militar podían verlo,
ante el temor que revelara secretos importantes mientras estaba sedado. Para ese
entonces, von Neumann había recibido un sinnúmero de doctorados Honoris
Causa, la medalla presidencial al mérito, el premio Enrico Fermi y el premio Albert
Einstein. Aunque nunca practicó en vida la religión Católica, bajo la cual fue
bautizado por sus padres, al sentir cerca su fin pidió que un sacerdote le diera los
sacramentos. Sus planes de irse a trabajar como profesor a la Universidad de
California en Los Ángeles nunca se volverían realidad, porque el "mejor matemático
del mundo", como lo llamara Herman H. Goldstine, falleció el 8 de febrero de 1957.
Su leyenda, sin embargo, sigue viva hasta nuestros días en los corredores de
Princeton y en una pléyade de libros alrededor del mundo.
Ada Byron
Ada Byron conoció a Charles Babbage en 1833, cuando ella tenía 18 años y el 42.
Quedó tan impresionada por las ideas sobre las máquinas que Babbage inventaba
que decidió estudiar matemáticas para poder ayudar a su amigo en lo que se refería
a la rama teórica de sus inventos. Se convirtió, con el paso de los años, en una gran
matemática y científica. Trabajó siempre muy cerca de Babbage en el diseño de
máquinas computadoras y muy en particular en el diseño de la "máquina analítica".
A propósito escribió:
"La característica que distingue a la máquina analítica, es la inclusión en ella del
principio que Jacquard concibió para regular la fabricación, mediante tarjetas
perforadas, de los más complicados modelos de brocados. Al capacitar a los
mecanismos para combinar entre sí símbolos generales ensucesiones de variedad y
extensión ilimitadas, se establece un eslabón entre las operaciones materiales y
los procesos mentales abstractos de la rama más teórica de la ciencia matemática.
Se desarrolla un lenguaje nuevo, amplio y poderoso, para su empleo futuro en
el análisis, cuyas verdades se podrán manejar de modo que su aplicación sea más
práctica y precisa para la humanidad de lo que hasta ahora han hecho las medidas a
nuestro alcance..."
Ada Byron desarrolló de manera teórica el primer programa que la máquina
analítica utilizó, pero su trabajo no se limitó a la parte científica; cuando el gobierno
les retiro el apoyo financiero, Ada apostó en las carreras de caballos y empeñó todas
sus joyas para obtener el dinero que se necesitaba en la construcción de la máquina.
Herman Hollerith
A los 19 años se graduó en la escuela de minería de la Universidad de Columbia y
empezó a trabajar en la Oficina de Censos de los Estados Unidos. En 1880 se realizó
el primer gran censo de ese país y la información se escribió en tarjetas
extremadamente largas que debían acomodarse y contarse manualmente en las
clasificaciones deseadas: edad, sexo, ocupación, etcétera, lo cual obligaba a que se
reacomodaran y contaran varias veces.
Hollerith se propuso desarrollar un método más práctico para manejar estos datos.
En 1889 termino su "máquina tabuladora eléctrica" que lograba registrar datos en
tarjetas perforadas. Gracias a este invento se lograban tabular de 50 a 75 tarjetas
por minuto y conteos que manualmente se hubieran terminado en años, podían
lograrse en pocos meses.
Herman Hollerith fundó en 1896 la Compañía de Máquinas Tabuladoras para
promover el uso comercial de su invento. Más tarde la compañía cambió al nombre
de International Business Machine (IBM).
Howard H. Aiken
Construyó una computadora electromecánica programable siguiendo las ideas
introducidas por Babbage
A partir de 1939 Howard Aiken, de la Universidad de Harvard, en asociación con
ingenieros de la compañía IBM, trabajó durante 5 años en la construcción de una
computadora totalmente automática, la "Harvard Mark I" que medía 15 metros de
largo por 2.4 de altura.
Esta máquina se controlaba con tarjetas perforadas, podía realizar cinco
operaciones fundamentales: suma, resta,
multiplicación, división y consulta de tablas de referencia. Los datos entraban
mediante tarjetas perforadas y salían a través de una máquina electrónica.
Konrad Zuse
Introdujo interruptores magnéticos, llamados relevadores eléctricos en las
computadoras.
Introdujo el control programado mediante cinta perforada lo que permitió
automatizar el proceso de cálculo.
Construyó la primera computadora electromecánica programable.
Zuse continuó perfeccionando la computadora y en 1939 terminó una segunda
versión a la que llamó Z2, dos años más tarde presentó la Z3, considerada por los
expertos como la primera computadora totalmente programable. Esta computadora
contenía en su procesador y en su memoria cerca de 2,600 relevadores que eran
interruptores magnéticos que permitían introducir en las máquinas la
representación binaria de los números.
En 1941 Zuse y un amigo solicitaron al gobierno alemán un patrocinio para
construir una computadora electrónica más rápida que utilizara tubos de vacío. Sin
embargo la ayuda no les fue otorgada y la máquina se quedó en proyecto.
Alan Mathison Turing
Diseñó la primera computadora electrónica digital de bulbos.
Turing fue un gran matemático, lógico y teórico de la computación. Cundo era
estudiante de postgrado en la universidad de Princeton en 1936, publicó el artículo
"On computable numbers", que estableció las bases teóricas para la computación
moderna. En él describió lo que después se llamó la "Máquina de Turing": un
dispositivo teórico que leía instrucciones de una cinta de papel perforada y
ejecutaba todas las operaciones de una computadora. El artículo también fijó
los límites de las ciencias de la computación al demostrar que existen problemas
que ningún tipo de computadora podrá resolver.
Después de doctorarse en 1938, Turing tuvo la oportunidad de poner sus teorías en
práctica. Bajo su dirección se construyó "Colossus", una máquina cuyo propósito
era descifrar el código secreto militar alemán y que fue terminada en 1943. En la
actualidad se le considera la primera computadora digital electrónica.
J. Presper Eckert y John W. Mauchly
Construyeron la computadora electrónica más grande del mundo y utilizaron para
ello 18,000 bulbos.
J. Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania,
inventaron y desarrollaron en 1946 la ENIAC, acrónimo de Electronic Numerical
Integrator and Calculator. Fue la mayor computadora de bulbos construida para
uso general. Cuando ENIAC funcionaba correctamente, la velocidad de cálculo era
entre 500 y 1000 veces superior a las calculadoras electromecánicas de su tiempo,
casi la velocidad de las calculadoras de bolsillo de hoy.
Años más tarde Eckert y Mauchly construyeron la UNIVAC, la primera
computadora que manejó información alfabética y numérica con igual facilidad.
Herman Hollerith
Herman Hollerith (1860-1929).
Herman Hollerith (Buffalo, Nueva York, 29 de febrero de1860 — 17 de
noviembre de 1929) fue un estadísticoestadounidense que inventó la máquina
tabuladora. Es considerado como el primer informático, es decir, el primero que logra
el tratamiento automático de la información (Informática = Información + automática).
[editar]Biografía
En el siglo XIX, los censos se realizaban de forma manual, con el retraso que ello
suponía (hasta 10 ó 12 años). Ante esta situación, Hollerith comenzó a trabajar en el
diseño de una máquina tabuladora o censadora, basada en tarjetas perforadas.
Hollerith observó que la mayor parte de las preguntas contenidas en los censos se
podían contestar con un SÍ o un NO. Entonces ideó una tarjeta perforada, una
cartulina en la que, según estuviera perforada o no en determinadas posiciones, se
contestaba este tipo de preguntas. La tarjeta tenía 80 columnas.
El Gobierno de los Estados Unidos eligió la máquina tabuladora de Hollerith
(considerada por algunos como la primera computadora) para elaborar el censo
de 1890. Se tardaron sólo 3 años en perforar unas 56 millones de tarjetas.
Hollerith patentó su máquina en 1889. Un año después incluyó la operación de sumar
con el fin de utilizarla en la contabilidad de los Ferrocarriles Centrales de Nueva York.
En 1896, Hollerith fundó la empresa Tabulating Machine Company, con el fin de
explotar comercialmente su invento. En 1911, dicha compañía se fusionó
con Computing Scale Company,International Time Recording Company y Bundy
Manufacturing Company, para crear la Computing Tabulating Recording
Corporation (CTR). El 14 de febrero de 1924, CTR cambió su nombre por el
deInternational Business Machines Corporation (IBM), cuyo primer presidente
fue Thomas John Watson, que curiosamente no estaba muy convencido del futuro que
podían tener estas máquinas.
Hollerith murió en 1929 a los 69 años, a causa de una infección en los riñones.
inea del tiempo de la computación (Historia de la Computación).
Por: Francisco Leonel Rubio Quintanilla. Ultima actualización 25 de
Noviembre del 2000.
Esta linea trata de no ser exclusivista y se busca incluir todos los
acontecimientos posibles para ser la linea mas completa y precisa si
crees que algo le sobra o le falta te agradecería tus comentarios.
Se trata de incluir toda la información posible respecto a
computadoras, macro, micro, Sistemas operativos, Microprocesadores
incluso de consolas de videojuegos.
[email protected]
Introducción.
A lo largo de la historia el hombre fue resolviendo sus
necesidades de registración, para llevar la cuenta de sus
bienes y efectuar las operaciones necesarias para la permuta
o la venta de los mismos. Fue ideando métodos ágiles de
cálculos, tales como contar con los elementos que les
proporcionaba la naturaleza, por ejemplo: dedos, piedras,
nudos en la soga, etc. Partiendo de la idea de contar con los
dedos, los pueblos primitivos tomaron como base de sus
cálculos el número 10, pero no todos tomaron el mismo
Antigüedad. sistema, los mayas calculaban en base al 20, los babilonios en
base al 60, y los esquimales en base al 5, etc. En la medida
que el hombre acumulaba un mayor número de posesiones,
aumentaba la tarea de contar. El mundo antiguo iniciaba su
expansión y los comerciantes compraban, vendían,
efectuaban trueques, inventariaban, necesitaban un
dispositivo para recoger información y obtener resultados
exactos.
Uno de los dispositivos mecánicos primitivos de cálculos fue el
contador de arena de los egipcios, que consistía en surco en
la arena donde colocaban piedras o guijarros.
Ábaco.
Uno de los primeros dispositivos mecánicos para contar fue el
ábaco, cuya historia se remonta a las antiguas civilizaciones
griega y romana. Este dispositivo es muy sencillo, consta de
cuentas ensartadas en varillas que a su vez están montadas
en un marco rectangular. Al desplazar las cuentas sobre
varillas, sus posiciones representan valores almacenados, y
es mediante dichas posiciones que este representa y
almacena datos. A este dispositivo no se le puede llamar
computadora por carecer del elemento
fundamental llamado programa.
2600a.C.
Ya que podemos ver que el ábaco y la
computadora personal son dos
pequeños dispositivos para proceso de
datos separados por miles de años de historia. Todo comienza
en la antigüedad con los mercaderes, que estaban buscando
la idea de llevar las cuentas de sus ganancias y sus perdidas.
Aparte, por otro lado buscaban la manera de contar la
cantidad de animales; como el ganado, etc; que tenían. Los
métodos y herramientas para efectuar transacciones
comerciales se desarrollaron conforme se fueron
introduciendo las monedas como un medio para comerciar y
las transacciones se hicieron mas complicadas y por lo tanto
necesitaron métodos de cálculo mas rápidos. Así fue como
apareció el ábaco, que rápidamente apareció por todo el
mundo y todavía se sigue usando actualmente. De hecho,
dicen en algunos libros que las personas que saben utilizar el
ábaco podrían realizar en la computadora operaciones y
cálculos rápidamente.
Después de este avance pasaron cerca de 4000 años antes
del siguiente mejoramiento importante, ya que, el uso de los
números romanos obstaculizaron la invención de aparatos
mecánicos de computación.
Sistema numérico arábigo.
1200
Alrededor del año 1200 de nuestra era, con la aceptación del
número arábigo, se favorecieron los avances. Pero no
apareció ningún aparato mecánico recién hasta el siglo XVII.
Logaritmos y regla de calculo.
1617
John NEPIER, desarrolló los logaritmos, este sistema
proporcionó un método conveniente para abreviar los cálculos,
convierte la multiplicación, división, potenciación y radicación
en simples sumas y restas. Esto deriva la invención de la
Regla de cálculo.
Sumadora de Da Vinci.
entre 1452
El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las
y 1519
ideas para una sumadora mecánica.
La Pascalina.
1642
El primero en lograr con éxito el desarrollo de una calculadora
mecánica para contar dígitos fue Blaise PASCAL (1642) a la
que se denominó Sumadora de Pascal o Pascalina, era un
aparato apropiado para efectuar largas sumas, consistía en
una hilera de ruedas, cada una de las cuales constaba de diez
dientes iguales que representaban los dígitos del 0 al 9,
formando lo que llamó la Rueda Contadora Decimal. Su
mecanismo se lo puede comparar con el del cuentakilómetros
del automóvil.
Durante los siguientes dos a tres millones de años de la
historia se fueron desarrollando métodos para el
procesamiento de datos y el siguiente descubrimiento
importante se produjo en 1642. Cuando Blaise Pascal,
Francés de 19 años, trabajaba en la oficina de su padre de
contabilidad fiscal, decidió que debía hacer algo para que su
padre y otros contadores fiscales no tuvieran que sumar largas
columnas de números y se tardaran tanto y gastaran tanto
tiempo valioso. Así que atravesé del tiempo desarrollo una
máquina calculadora mecánica que era operada por una serie
de discos de selección, unidos a engranes, que tenían los
números del cero al nueve en su circunferencia. El problema
que tenía esta calculadora era que sólo servía para sumar.
Multiplicadora de Leibnitz.
En base a la sumadora de Pascual, en 1671, Leibnitz
(científico y filósofo alemán) proyectó una máquina de
multiplicar por medio de sumas sucesivas.
1694
Gottfried Wilhelm Leibnitz empezó a trabajar sobre una
máquina que pudiera multiplicar y dividir directamente. La
primera versión fue terminada en 1694, que fue en forma de
dispositivo escalonada, y por cierto todavía se pueden
encontrar en muchas calculadoras actuales.
El telar de Jacquard.
Mientras tanto Charles Jacquard (francés), fabricante de
tejidos, había creado un telar que podía reproducir
automáticamente patrones de tejidos leyendo la información
codificada en patrones de agujeros perforados en tarjetas de
papel el rígido.
1801
El telar de tejido, inventado en 1801 por el Francés JosephMarie Jackard (1753-1834), usado todavía en la actualidad, se
controla por medio de tarjetas perforadas. El telar de Jackard
opera de la manera siguiente: las tarje tarjetas se perforan
estratégicamente y se acomodan en cierta secuencia para
indicar un diseño de tejido en particular. Charles Babbage
quiso aplicar el concepto de las tarjetas perforadas del telar de
Jackard en su motor analítico.
La tejedora de Vaucamon.
1807
En la revolución de la computación influyeron en gran medida
las técnicas de las tarjetas perforadas. Las mismas surgen
primero de la industria textil, en el período 1725-1745,
Yacques de Vaucamon desarrolló un equipo de tejer, que era
controlado por una cinta de papel perforado, su diseño era
muy rudimentario pero sirvió de inspiración para futuros
progresos. En 1807, Joseph Jacquard, perfeccionó una
máquina que empleaba una secuencia de tarjetas perforadas,
cuyas perforaciones controlaban la selección de los hilos y la
ejecución del diseño.
La locura de Babbage.
1823
Charles Babbage (1793-1871), visionario inglés y catedrático
de Cambridge, hubiera podido acelerar el desarrollo de
lascomputadoras si él y su mente
inventiva hubieran nacido 100 años
después. Adelantó la situación del
hardware computacional al inventar la
"máquina de diferencias", capaz de
calcular tablas matemáticas. En 1834,
cuando trabajaba en los avances de la
máquina de diferencias Babbage
concibió la idea de una "máquina
analítica". En esencia, ésta era una
computadora de propósitos generales. Conforme con su
diseño, la máquina analítica de Babbage podía sumar,
substraer, multiplicar y dividir en secuencia automática a una
velocidad de 60 sumas por minuto. El diseño requería miles de
engranes y mecanismos que cubrirían el área de un campo de
fútbol y necesitaría accionarse por una locomotora. Los
escépticos le pusieron el sobrenombre de "la locura de
Babbage". Charles Babbage trabajó en su máquina analítica
hasta su muerte. Los trazos detallados de Babbage describían
las características incorporadas ahora en la moderna
computadora electrónica. Si Babbage hubiera vivido en la era
de la tecnología electrónica y las partes de precisión, hubiera
adelantado el nacimiento de la computadora electrónica por
varías décadas. Irónicamente, su obra se olvidó a tal grado,
que algunos pioneros en el desarrollo de la computadora
electrónica ignoraron por completo sus conceptos sobre
memoria, impresoras, tarjetas perforadas y control de
programa de secuencia.
La primera computadora fue la máquina analítica creada por
Charles Babbage, profesor matemático de la Universidad de
Cambridge en el siglo XIX. La idea que tuvo Charles Babbage
sobre un computador nació debido a que la elaboración de las
tablas matemáticas era un proceso tedioso y propenso a
errores. En 1823 el
gobierno Británico lo apoyo
para crear el proyecto de
una máquina de
diferencias, un dispositivo
mecánico para efectuar
sumas repetidas.
Babbage inventó en 1822
la primera computadora de
propósito general. Nunca
llegó a construirla, ya que las técnicas de precisión de la
época no estaban preparadas para satisfacer las necesidades
de su proyecto. Pero el concepto que dejó BABBAGE en el
diseño de su máquina, ha suministrado ideas básicas que se
utilizaron en las computadoras modernas.
Propuso una máquina con ruedas contadoras decimales que
fuera capaz de efectuar una operación de suma en un
segundo; era ante todo automática y requería un mínimo de
atención por parte del operador, lograba esto evitando que la
máquina perdiera velocidad. Babbage había diseñado su
máquina con capacidad de acumular datos, operar y controlar
la ejecución de las instrucciones.
Dicha máquina debía disponer de:
a) Dispositivo de entrada
b) Memoria para almacenar los datos introducidos y los
resultados de las operaciones intermedias
c) Unidad de control, vigila la ejecución correcta de las
instrucciones
d) Unidad de aritmética y lógica, efectúa las operaciones
e) Dispositivo de salida, transmite el resultado al exterior
La primera programadora.
1843
En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las
tarjetas perforadas pudieran adaptarse de manera que
propiciaran que el motor de Babbage repitiera ciertas
operaciones. Debido a esta sugerencia algunas personas
consideran a Lady Lovelace como la primera programadora.
El Algebra Boleana.
1854
George Boole publicó su pensar acerca de la lógica simbólica,
la cual décadas después formó la base de las aplicaciones en
las ciencias de las computadoras.
El papel forma continua.
1857
1876
Sir Charles Wheatstone introduce el "continuous feeding
paper", o el papel que utilizan las impresoras de "dot matrix" el
cual más tarde sería utilizado para almacenar y leer
información.
Alexander Graham Bell, de 27 años, lleno la patente
para el teléfono.
La tabuladora de Hollerit.
1890
Herman Hollerit (1860-1929) La oficina de censos
estadounidense no terminó el censo de 1880 sino hasta 1888.
La dirección de la oficina ya había llegado a la conclusión de
que el censo de cada diez años tardaría mas que los mismo
10 años para terminarlo. La oficina de censos comisiono al
estadista Herman Hollerit para que aplicara su experiencia en
tarjetas perforadas y llevara a cabo el censo de 1890. Con el
procesamiento de las tarjetas perforadas y el tabulador de
tarjetas perforadas de Hollerit, el censo se terminó en sólo 3
años y la oficina se ahorró alrededor de $5,000,000
de dólares. Así empezó el procesamiento
automatizado de datos. Hollerit no tomó la
idea de las tarjetas perforadas del invento
de Jackard, sino de la "fotografía de
perforación" Algunas líneas ferroviarias de
la época expedían boletos con
descripciones físicas del pasajero; los conductores hacían
orificios en los boletos que describían el color de cabello, de
ojos y la forma de nariz del pasajero. Eso le dio a Hollerith la
idea para hacer la fotografía perforada de cada persona que
se iba a tabular. Hollertih fundó la Tabulating Machine
Company y vendió sus productos en todo el mundo. La
demanda de sus máquinas se extendió incluso hasta Rusia. El
primer censo llevado a cabo en Rusia en 1897, se registró con
el Tabulador de Hollerith. En 1911, la Tabulating Machine
Company, al unirse con otras Compañías, formó la
Computing-Tabulating-Recording-Company.
Debido al gran avance que trajo aparejado la Revolución
Industrial durante el siglo XIX, junto con la creciente
complejidad de la organización social, se planteó un nuevo
problema: el tratamiento de grandes cantidades de datos.
Así surgen los equipos de tarjetas perforadas, que se usaron
para acumular y procesar automáticamente gran cantidad de
datos. La primera operación de procesamiento de datos fue
lograda por un estadístico que trabajaba en la oficina de
censos de los EE.UU., quien desarrolló un sistema mecánico
para registrar, calcular y tabular los datos extraídos del censo.
El nuevo sistema se basaba en perforaciones en una larga tira
de papel que para ser leídas se colocaban en cubetas de
mercurio unidas eléctricamente por conductores. En los
lugares donde habían perforaciones, unas púas entraban en
contacto eléctrico con los conductores, y entonces eran
registrados en los contadores. Esto dió origen al sistema
binario o de dos posiciones (SI hay perforación o NO hay
perforación) esto permite la representación interna de los
datos en un computador.
HOLLERITH, también ideó una clasificación eléctrica y
automática que operaba a razón de 300 tarjetas por minuto.
Las clasificaba en forma ascendente y descendente por orden
numérico o alfabético.
Esta innovaciones aumentaron la velocidad, versatilidad y
utilidad de las máquinas de tarjetas perforadas. Esto dio por
resultado que se usarán cada vez más estos dispositivos para
procesamiento de datos de negocios, así como computación
científica y estudios estadísticos.
Pero pese a esto, estas máquinas tienen varias limitaciones,
ya que por ser electromecánicas su velocidad se veía limitada
por el diseño básico y además como cada máquina se
diseñaba para cumplir una función especial, la transferencia
de tarjetas de una pieza de equipo a otra, para diferentes
operaciones, no sólo consume tiempo, sino que incrementa la
posibilidad de error.
Las raices de IBM.
1896
En 1896, el Dr. Hollerith formó una comapañía para desarrollar
una máquina. Esta compañía se fusionó posteriormente con
otras dos y se convirtió en lo que hoy se conoce como IBM.
(Internacional Business Machines.) James Powers, quien
también durante su tiempo fue estadístico del Departamento
de Censos, fundó posteriormente otra compañía que con el
tiempo formó parte de UNIVAC, una división de Sperry Rand
Corporation. IBM y UNIVAC produjeron la mayor parte del
equipo elctromecánico para procesamiento de datos del que
se dispone hoy en día.
1897
Karl Braun desarrolla el tubo de rayos de cátodos.
1918
Dos inventores construyeron una máquina calculadora
basada en los números binarios 1 y 0.
Las maquinas electromecánicas de contabilidad (MEC).
1919
Las maquinas electromecánicas de contabilidad (MEC) Los
resultados de las máquinas tabuladoras tenían que llevarse al
corriente por medios manuales, hasta que en 1919 la
Computing-Tabulating-Recording-Company. Anunció la
aparición de la impresora/listadora. Esta innovación
revolucionó la manera en que las Compañías efectuaban sus
operaciones. Para reflejar mejor el alcance de sus intereses
comerciales, en 1924 la Compañía cambió el nombre por el de
international Bussines Machines Corporation (IBM) Durante
décadas, desde mediados de los cincuentas la tecnología de
las tarjetas perforadas se perfeccionó con la implantación de
más dispositivos con capacidades más complejas. Dado que
cada tarjeta contenía en general un registro (Un nombre,
dirección, etc.) el procesamiento de la tarjeta perforada se
conoció también como procesamiento de registro unitario.
La familia de las máquinas electromecánicas de contabilidad
(EAM) eloctromechanical accounting machine de dispositivos
de tarjeta perforada comprende: la perforadora de tarjetas, el
verificador, el reproductor, la perforación sumaria, el intérprete,
el clasificador, el cotejador, el calculador y la máquina de
contabilidad. El operador de un cuarto de máquinas en una
instalación de tarjetas perforadas tenía un trabajo que
demandaba mucho esfuerzo físico. Algunos cuartos de
máquinas asemejaban la actividad de una fábrica; las tarjetas
perforadas y las salidas impresas se cambiaban de un
dispositivo a otro en carros manuales, el ruido que producía
eran tan intenso como el de una planta ensambladora de
automóviles.
La supuesta primer computadora.
John Atanasoff comienza a trabajar en la primera
computadora digital pero se olvida de llenar su patente, casi
diez años después, la ENAC utilizaría su trabajo como base.
1937
Atanasoff Y Berry Una antigua patente de un dispositivo que
mucha gente creyó que era la primera computadora digital
electrónica, se invalidó en 1973
por orden de un tribunal federal, y
oficialmente se le dio el crédito a
John V. Atanasoff como el
inventor de la computadora digital
electrónica. El Dr. Atanasoff,
catedrático de la Universidad
Estatal de Iowa, desarrolló la
primera computadora digital
electrónica entre los años de 1937
a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó
solo ABC (Atanasoff Berry Computer). Un estudiante
graduado, Clifford Berry, fue una útil ayuda en la construcción
de la computadora ABC.
Algunos autores consideran que no hay una sola persona a la
que se le pueda atribuir el haber inventado la computadora,
sino que fue el esfuerzo de muchas personas. Sin embargo en
el antiguo edificio de Física de la Universidad de Iowa aparece
una placa con la siguiente leyenda: "La primera computadora
digital electrónica de operación automática del mundo, fue
construida en este edificio en 1939 por John Vincent
Atanasoff, matemático y físico de la Facultad de la
Universidad, quien concibió la idea, y por Clifford Edward
Berry, estudiante graduado de física."
1938
William Hewlett y David Packard formaron HP en una
marquesina en Palo Alto California. Konrad Zuse
produce la primera computadora que utiliza código
binario.
1939
Georges Stibitz y Samuel Williams construyen la
Complex Number Computer, la cual se convierte en la
precursora de módem como lo conocemos hoy en día.
La primer computadora programable.
1941
Konrad Zuse Contruyo la primera compuradora programable y
resolvía ecuaciones copleas de ingeniería, fue controlada por
tarjetas perforadas, y fue la primera que operó con el sistema
binario, comparado con otras decimales.
La Mark I.
1944
En 1937 el Dr. Howard H. Aiken de la Universidad de Harvard
desarrolló una máquina automática de cómputo que
combinaba todas las operaciones en un solo equipo, para ello
empleó varias de las ideas originales de Babbage junto con el
concepto de agujeros perforados de Jacquard y Hollerith. IBM
lo ayudó en el equipo y en 1944 la Calculadora de Secuencia
Automática Controlada o Mark 1 estaba terminada y fue
presentada a la Universidad de Harvard. La Mark 1 pesaba 5
T. y constaba de un comlpejo de 78 máquinas sumadoras y
calculadoras conectadas por 800 Km de cable. Las
instrucciones se perforaban en cinta de papel y una vez que la
máquina ejecutaba la primera instrucción no requería de la
intervención humana, a partir de ese momento. La Mark 1 fue
una computadora electromecánica en la cual las operaciones
se llevaban a cabo mediante de interruptores y reveladores
eléctricos. Apesar de que la tecnología había avanzado, estas
máquinas todavía tenían restricciones a causa de su lentitud y
de dificultades en su operación mecánica.
Después de esta máquina, se construyeron otras digitales en
gran escala, como por ejemplo la llamada Mark II, también
diseñada por Aiken.
La ENIAC.
La primera computadora totalmente electrónica fue la
E.N.I.A.C. construída en 1943; y fue terminada en 1945.
E.N.I.A.C. , una computadora
de Primera Generación,
económica, científicoacadémico y funcionaba a
válvulas de vacío, las que
efectuaban las funciones de
transferencia de control que
en Mark I, realizaban los
relevadores; esto, posibilitó
que las operaciones se
realizaran a mayor velocidad,
así podía multiplicar mil veces más rápido que la máquina de
Aiken.
Esta se construyó en la Universidad de Pennsylvania, la
ENIAC fue la primera computadora electrónica, el equipo de
diseño lo encabezaron los ingenieros John Mauchly y John
Eckert.
1947
Mauchly y Eckert, después de varias conversaciones con el
Dr. Atanasoff, leer apuntes que describían los principios de la
computadora ABC y verla en persona, el Dr. John W. Mauchly
colaboró con J.Presper Eckert, Jr. para desarrollar una
máquina que calculara tablas de trayectoria para el ejército
estadounidense.
El proyecto, auspiciado por el departamento de Defensa de los
Estados Unidos, culminó dos años después, cuando se integró
a ese equipo el ingeniero y matemático húngaro John von
Neumann (1903 - 1957). Las ideas de von Neumann
resultaron tan fundamentales para su desarrollo posterior, que
es considerado el padre de las computadoras.
Era una computadora electrónica completamente operacional
a gran escala, se terminó en 1946 y se llamó ENIAC
(Electronic Numerical Integrator And Computer), ó Integrador
numérico o y calculador electrónico. La ENIAC construida para
aplicaciones de la Segunda Guerra mundial, se terminó en 30
meses por un equipo de científicos que trabajan bajo reloj. La
ENIAC, mil veces más veloz que sus predecesoras
electromecánicas, irrumpió como un importante
descubrimiento en la tecnología de la computación.
Esta máquina ocupaba todo un sótano de la Universidad, tenía
más de 18 000 tubos de vacío, consumía 200 KW de energía
eléctrica y requería todo un sistema de aire acondicionado,
pero tenía la capacidad de realizar cinco mil operaciones
aritméticas en un segundo. Pesaba 30 toneladas y ocupaba
un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x
12 m y con tenía 18,000 bulbos, tenía que programarse
manualmente conectándola a 3 tableros que contenían más
de 6000 interruptores. Ingresar un nuevo programa era un
proceso muy tedioso que requería días o incluso semanas. A
diferencia de las computadoras actuales que operan con un
sistema binario (0,1) la ENIAC operaba con uno decimal
(0,1,2..9) La ENIAC requería una gran cantidad de
electricidad. La leyenda cuenta que la ENIAC, construida en la
Universidad de Pennsylvania, bajaba las luces de Filadelfia
siempre que se activaba. La imponente escala y las
numerosas aplicaciones generales de la ENIAC señalaron el
comienzo de la primera generación de computadoras.
El control de la computadora se realizaba mediante el
alambrado de cables removibles o cinta de papel y, una vez
que el procesamiento de los datos había sido iniciado, ninguna
modificación podía efectuarse a pesar de que surgiera la
necesidad de hacerlo. Con la EDSAC fue posible tener las
instrucciones y lo datos almacenados en la unidad de
almacenamiento de la computadora.
La EDVAC.
1945
En 1945, John von Neumann, que había trabajado con Eckert
y Mauchly en la Universidad de Pennsylvania, publicó un
artículo acerca del almacenamiento de programas. El
concepto de programa almacenado permitió la lectura de un
programa dentro de la memoria de la computadora, y después
la ejecución de las instrucciones del mismo sin tener que
volverlas a escribir. La primera computadora en usar el citado
concepto fue la llamada EDVAC (Eletronic Discrete-Variable
Automatic Computer, es decir computadora automática
electrónica de variable discreta), desarrollada por Von
Neumann, Eckert y Mauchly.
Los programas almacenados dieron a las computadoras una
flexibilidad y confiabilidad tremendas, haciéndolas más rápidas
y menos sujetas a errores que los programas mecánicos. Una
computadora con capacidad de programa almacenado podría
ser utilizada para varias aplicaciones cargando y ejecutando el
programa apropiado.
Hasta este punto, los programas y datos podría ser ingresados
en la computadora sólo con la notación binaria, que es el
único código que las computadoras "entienden". El siguiente
desarrollo importante en el diseño de las computadoras fueron
los programas intérpretes, que permitían a las personas
comunicarse con las computadoras utilizando medios distintos
a los números binarios.
La EDSAC.
1949
En 1949 se construyó la E.D.S.A.C. (Computadora Automática
Electrónica de Almacenamiento Diferido); con ella los
transistores sustituyeron a las válvulas y entonces aparecieron
las computadoras de Segunda Generación.
Utilizando el mismo principio de almacenamiento se
construyeron otras máquinas en utilizar cinta magnética como
dispositivo de entrada y salida. Disponía de gran velocidad,
confiabilidad, capacidad de memoria y la posibilidad de
manejar igualmente números y materias descriptivas.
1949
John Mauchly desarrolla el Shot Code, el primer
lenguaje mundial de alto nivel.
La UNIVAC.
1951
Conforme la tecnología avanzó
en todas las áreas la
investigación en el campo de
las computadoras se extendió y
los resultados se hicieron
comercialmente más practicos
en tamaño y costo. La UNIVAC
1 (Universal Automatical
Computer), instalada en el
Departamento de Censos de
E.U.A. en 1951 fue la primera computadora que se produjo en
forma comercial y contenía varias de las características de las
computadoras actuales. Remington Rand comercializó esta
máquina. El uso comercial de la computadora UNIVAC
comenzó en 1954 y apartir de esa fecha la industria del
procesamiento de datos comenzó a crecer hasta alcanzar su
magnitud actual. La mayoría de las mejoras en las
computadoras, desde esa fecha, han sido en la reducción de
su tamaño, hasta el punto de miniaturizar las partes o
componentes lo cual produjo un incremento en la velocidad de
operación. Hoy en día las computadoras se diseñan y se
construyen en diversos países del mundo, entre ellos: Rusia,
Japón, E.U.A., Inglaterra Alemania y China.
El COBOL.
1952
Hasta este punto, los programas y datos podría ser ingresados
en la computadora sólo con la notación binaria, que es el
único código que las computadoras "entienden". El siguiente
desarrollo importante en el diseño de las computadoras fueron
los programas intérpretes, que permitían a las personas
comunicarse con las computadoras utilizando medios distintos
a los números binarios. En 1952 Grace Murray Hoper una
oficial de la Marina de E.U., desarrolló el primer compilador, un
programa que puede traducir enunciados parecidos al inglés
en un código binario comprensible para la maquina llamado
COBOL (COmmon Business-Oriented Languaje).
IBM construye su modelo 650, la primera computadora
producida en masa, la compañía vendió 1500 antes de
que llegaran al mercado.
1955
Naridender Kapany desarrolla la fibra óptica.
1956
IBM desarrolla el primer disco duro llamado RAMAC.
1957
Texas Instruments construye el primer circuito
integrado. Bell Telephone introduce los primeros
módems. Investigadores en Bell Labs inventan el láser.
1958
Utilizando el ábaco Lee Kaichen, un profesor chino,
realizó cálculos mas rápido que una computadora en
Seattle, New York y Taipei.
Xerox introduce la primera copiadora comercial.
1959
1962
Digital Equipment Corporation desarrolla la PDP-1, la
primera computadora comercial equipada con teclado y
monitor.
El Peoples National Bank en Gouster, Virginia, instala
la primera ATM del mundo, no es muy exitosa y
eventualmente la retiran.
Programadores en MIT crean el primer juego de vídeo.
1963
Douglas Engelbart construye el primer "Mouse" en el
Stanford Research Institute, dos décadas más tarde, la
Macintosh lo convertirá en un componente estándar.
Se vislumbra ARPANET.
1964
Hace años atrás, las agencias encargadas de la seguridad de
la Nación Americana confrontaban una preocupación muy
genuina: Cómo las autoridades se comunicarían
efectivamente luego de un ataque nuclear. Las
comunicaciones juegan un papel importante en las seguridad
de las naciones. Cualquier autoridad central sería el blanco
principal de un ataque.
En 1964 se da a conocer la primera propuesta para dicho
problema. En primer lugar la red de comunicaciones sería
diseñada desde sus orígenes sin ninguna autoridad central. El
principio era sencillo: todos los nodos en la red tendrían igual
estatus con la misma capacidad de transmitir, pasar y recibir
mensajes. El mensaje por su parte sería dividido en paquetes,
cada uno con la información suficiente para llegar a su
destino, por lo que el viaje a través de la red sería
independiente. La ruta que cada paquete tomase no tendría
importancia, siempre y cuando llegase a su destino. A este
concepto se le conoce como packet switching networking.
1965
Digital Equipment Corporation construye la primera
mini-computadora, su costo es de $18,000. El lenguaje
simple de computadoras BASIC es desarrollado, más
tarde se convertirá en un lenguaje estándar para las
computadoras personales.
1968
Se crea Intel.
Debuta la ARPANET, precursora de la Internet.
1969
La primera red grande y ambiciosa basada en dicho concepto
(1964) en Estados Unidos fue realizada por la Advanced
Reseach Projects Agency (ARPA). Para diciembre de 1969 se
encontraban ya conectadas cuatro computadoras, tres en
California y una en Utah, en la red que se conoció como
ARPANET. Gracias a esta red, científicos e investigadores
podían intercambiar información y hacer uso de facilidades de
forma remota.
Se crea la "Bubble memory", esta permite a las
computadoras retener información en dicha memoria
aun cuando se apagan.
Se introduce el Floppy disck.
1970
Intel desarrolla el primer chip de memoria, la cual
almacena 1024 bits de data.
Xerox establece su Palo Alto Research Center.
Bell Labs desarrolla Uníx.
Texas Instruments introduce la calculadora de bolsillo.
Aparece la primera impresora dot matrix.
1971
Crece ARPANET.
Rápidamente otras facilidades con recursos computacionales
comenzaron a hacer uso de esta innovadora tecnología de
packet-switching para interconectar sus propios sistemas y
eventualmente conectarse con ARPANET. Ya se encontraban
alrededor de 20 nodos en ARPANET.
Atari lanza su primera máquina de juegos, Pong. La
compania se fundo el mismo año por Nolan Bushnell.
Programadores en Bell Labs desarrollan el lenguaje C.
Ray Tomlinson inventa el correo electrónico.
ARPANET continua creceiendo.
1972
Para este segundo año de operación se había descubierto
algo inesperado. La mayoría del tráfico en ARPANET no era
precisamente computación a distancia sino noticias y
mensajes personales. Se desarrolla para entonces lo que se
conoce como mailing-lists, técnica para distribuir mensajes
automáticamente a un número grande de "suscriptores".
ARPANET ya había aumentado a 40 nodos.
15 de Noviembre. El 4004.
El primer procesador el 4004, presentado en el mercado el día
15 de noviembre de 1971, poseía
unas características únicas para su
tiempo. Para empezar, la velocidad de
reloj sobrepasaba por poco los 100
KHz, disponía de un ancho de bus de 4
bits y podía manejar un máximo de 640
bytes de memoria. Realmente una
auténtica joya que para entonces podía
realizar gran cantidad de tareas, pero
que por desgracia no tiene punto de comparación con los
actuales micros. Entre sus aplicaciones, podemos destacar su
presencia en la calculadora Busicom, así como dotar de los
primeros tintes de inteligencia a objetos inanimados.
La primera conexión internacional.
1973
En los años 70 la red continuó creciendo. Incluyendo la
primera conexión internacional (Inglaterra y Noruega - 1973).
La estructura descentralizada de la red hacía fácil su
expansión. El tipo de computadora que se conectara no era
importante; sólo debía ser capaz de "hablar el mismo
lenguaje" basado en packet-switching.
1 de Abril. El 8008.
Intel anunciaba una versión mejorada de su procesador. Se
trataba del 8008, que contaba como principal novedad con un
bus de 8 bits, y la memoria direccionable se ampliaba a los 16
Kb. Además, llegaba a la cifra de los 3500 transistores, casi el
doble que su predecesor, y se le puede considerar como el
antecedente del procesador que serviría de corazón al primer
ordenador personal
1 de Abril. La Altair.
1974
Intel anunciaba ese tan esperado primer ordenador personal,
de nombre Altair, cuyo nombre proviene de un destino de la
nave Enterprise en uno de los capítulos de la popular serie de
televisión Star Trek la semana en la que se creó el ordenador.
Esta computadora tenía un costo de al rededor de 400 dólares
de la época, y el procesador suponía multiplicar por 10 el
rendimiento del anterior, gracias a sus 2 MHz de velocidad
(por primera vez se utiliza esta medida), con una memoria de
64 Kb. En unos meses, logró vender decenas de miles de
unidades, en lo que suponía la aparición de la primer
computadora que la gente podía comprar, y no ya
simplemente utilizar. La computadora contaban con un CPU
8080 como cerebro.
Debuta Altair 8800, primera computadora personal
mercadeada a gran escala.
También se mercadea por primera vez el Liquid cristal
display.
1975
Bob Metcalfe de Xerox desarrolla la Ethernet. Se
desarrolla el primer procesador de palabras, Electric
Pencil.
IBM introduce la impresora láser.
Para esa misma fecha el gobierno los demanda por tener un
monopolio. En el 1982 el gobierno deja el caso pero no antes
de procesar 30 millones de páginas de documentación sobre
el caso.
La primer micro computadora de uso masivo.
1976
Steve Wozniak y Steve Jobs inventan la primera micro
computadora de uso masivo y más tarde forman la compañía
conocida como la Apple que fue la segunda compañía más
grande del mundo, antecedida tan solo por IBM; y esta por su
parte es aún de las cinco compañías más grandes del mundo.
Data General revela su chip de computadora en el
ombligo de una belly dancer en el National Computer
Conference en Nueva York.
IBM desarrolla la impresora de chorros de tinta o ink jet.
El Atari 2600 VCS (Video
Computer System).
Como una de las primeras consolas
para el publico en el mercado. El
Atari 2600 es la consola mas classica
y domino despues de su inicio el
mercado de videojuegos. Aunque la
tecnica desde vista de hoy es muy primitiva, miles de juegos
se hicieron para este sistema; Hasta hoy no hay una otra
consola con mas juegos..! Los simples juegos de solamente 4
KB (!) pudieron fascinar a milliones. Para el PC ya hubo un
paquete (Atari Action Pack) para Fans "durodematar" de este
sistema.
1977
Ahora hasta hay un Doom-Clone (Screenshot), que
programarion unos freaks para el Atari 2600 VCS .
Bill Gates y Paul Allen oficialmente fundan Microsoft.
La Apple II.
Apple introduce la Apple II, la primera computadora preensamblada; Apple II estara al mando del mercado de
computadoras personales hasta que las IBM aparezcan en el
mercado en el 1981.
Tandy y Commodore lanzan sus computadoras con
monitor integrado.
Wordstar es lanzada y prontamente se convierte en el
procesador de palabras más popular.
8 de Junio. El 8088, el 8086 y la IBM PC.
1978
La computadora personal no pasó a ser tal hasta la aparición
de IBM, el gigante azul, en el mercado. Algo que sucedió en
dos ocasiones en los meses de junio de 1978 y de 1979.
Fechas en las que respectivamente, hacían su aparición los
microprocesadores 8086 y 8088, que pasaron a formar el
denominado IBM PC, que vendió millones de unidades de
ordenadores de sobremesa a lo largo y ancho del mundo. El
éxito fue tal, que Intel fue nombrada por la revista "Fortune"
como uno de los mejores negocios de los años setenta. De los
dos procesadores, el más potente era el 8086, con un bus de
16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000
transistores usando la tecnología de 3 micras y hasta un
máximo de 1 Mega de memoria direccionable. El rendimiento
se había vuelto a multiplicar por 10 con respecto a su
antecesor, lo que suponía un auténtico avance en lo que al
mundo de la informática se refiere.
dBASEII aparece en el mercado.
Había ya más de 200 nodos, en ARPANET.
1980
1981
Originalmente el "lenguaje" utilizado por ARPANET fue NCP
(Network Control Protocol). Luego fue sustituido por un
estándar más sofisticado conocido como TCP/IP. TCP
(Transmission Control Protocol) es el responsable de convertir
el mensaje en paquetes y luego reconstruir este en el destino.
IP (Internet Protocol) es el que maneja el viaje de los paquetes
a través de distintos nodos y redes dada la dirección de su
destino. Dado que el software que implementaba los
protocolos de TCP/IP en las computadoras era de fácil acceso
-y sobre todo gratis- unido a la descentralización de la red, no
impedía que más y más computadoras se conectasen.
IBM introduce la IBM PC con MS-DOS como sistema
operativo.
Dr. Barney Clark recibe el primer corazón artificial, un
microprocesador controla sus funciones. Se introducen
los discos compactos.
Se propociona el primer clon de IBM. Time Magazine
nombra la computadora como "man of the year".
Apple introduce Lisa, la primera computadora con
interfase gráfica y con un mouse con un costo de
$9,995.
1982
El Vectrex.
El Vectrex que se inico en 1982 por
$199 Dollares en Estados Unidos
tambien ya es una pieza de museo,
pero no tan viejo como el Atari 2600.
La gran differenica a otras consolas es
que los juegos del Milton-Bradley
Vectrex no son de gráfica de raster
(pixel), si no son visualisados con
ayuda de gráfica de vectores (linias) en
el incluido monitor monochrom. El
Vectrex tambien trae un juego en su ROM: un Asteroids-Clone
llamado minestorm. Para todos los juegos hubo differentes
folios colorados, que se podian colocar en el monitor de 9".
El 80286.
1 de
Febrero
En el año 1982, concretamente el 1 de febrero, Intel daba un
nuevo vuelco a la industria con la aparición de los primeros
80286. Como principal novedad, cabe destacar el hecho de
que por fin se podía utilizar la denominada memoria virtual,
que en el caso del 286 podía llegar hasta 1 Giga. También hay
que contar con el hecho de que el tiempo pasado había
permitido a los ingenieros de Intel investigar más a fondo en
este campo, movidos sin duda por el gran éxito de ventas de
los anteriores micros. Ello se tradujo en un bus de 16 bits,
134000 transistores usando una tecnología de 1.5 micras, un
máximo de memoria direccionable de 16 Megas y unas
velocidades de reloj de 8, 10 y 12 MHz. En términos de
rendimiento, podíamos decir que se había multiplicado entre
tres y seis veces la capacidad del 8086, y suponía el primer
ordenador que no fabricaba IBM en exclusiva, sino que otras
muchas compañías, alentadas por los éxitos del pasado, se
decidieron a crear sus propias máquinas. Como dato curioso,
basta mencionar el hecho de que en torno a los seis años que
se le concede de vida útil, hay una estimación que apunta a
que se colocaron en torno a los 15 millones de ordenadores
en todo el mundo
Mas de ARPANET.
1983
En 1983 ARPANET separa su parte militar en lo que se
conoce como MILNET. Otras grandes redes se organizan en
los 80's tales como BITNET (Because it's Time Network),
CSNET (Computer Science Network), NSFNET (National
Science Fundation Network), así como agencias
gubernamentales tales como NASA, The National Institute of
Health y The Department of Energy.
Debuta el CD-rom.
Apple lanza la Macintosh.
1984
También se introducen al mercado los módems
2,400kb/s.
El novelista William Gibson utiliza el termino
cyberspace.
El Nintendo (NES).
El NES (Nintendo Entertainment System) se inicio en 1984
como primera consola de 8-Bit en japon
con el nombre de Famicom (FAMiliy
COMputer). Fue un pedazo sorprende de
Hardware comparado con los sistemas de
ese tiempo (Coleco, Intellivision, Atari
2600 y 5200). El NES era tecnicamente inferior al Sega Master
System , pero los juegos para el NES eran mejores, asi que el
NES hizo la carrera, por lo menos en Estados Unidos y Japon.
En Europa la situacion era al reves: Sega Master System era
el numero uno en el mercado de videojuegos, y el NES era
algo curioso. Nintendo Europa saco licencia del los juegos del
Sega Master System para sostenerse en el mercado.
America Online es fundada.
Microsoft desarrolla Windows 1.0 para la IBM.
Bill Gates y John Sculley CEO de Apple, firma un
arreglo confidencial concediéndole a Microsoft el
derecho de utilizar la interfase gráfica de Apple en sus
programas.
Nintendo llega a los Estados Unidos.
17 de Octubre. El 80386DX.
1985
El año de 1985 es clave en la historia de los procesadores. El
17 de octubre Intel anunciaba la aparición del procesador
80386DX, el primero en poseer una arquitectura de 32 bits, lo
que suponía mayor velocidad a la hora de procesar las
instrucciones realmente importante con respecto a su
antecesor. Dicho procesador contenía en su interior en torno a
los 275000 transistores, más de 100 veces los que tenía el
primer 4004 después de tan sólo 14 años. El reloj llegaba ya
hasta un máximo de 33 MHz, y era capaz de direccionar 4
Gigas de memoria, tamaño que todavía no se ha superado por
otro procesador de Intel dedicado al mercado doméstico.
El Sega Master System.
El Sega Master System se inico en 1985
(un año despues que el NES en japon
con el nombre Sega Mark II. Despues se
inicio el portatil y compatible Game Gear
como respuesta al Gameboy de Nintendo.
1986
Internet se vuelve público.
El National Science Fundation aprueba los fondos para
el Internet backbone.
Para finales de 1986 más de 5,000 nodos se encontraban
conectados. En 1989 NSFNET remplaza su backbone de
56Kbps por líneas T1 de 1,544Mbps. La atención de NSF, así
como su gran contribución en el establecimiento de la
infraestructura en las comunicaciones, hizo que se le
considerara el "backbone del Internet". Para este momento
más de 100,000 nodos estaban conectados.
Por razones de organización se establece un sistemas de
"dominios" para distinguir a que grupo o localización pertenece
cada nodo. Computadoras internacionales fueron nombradas
por su localización geográfica (.us, .uk, .au, .pr, etc.). Las
demás fueron agrupadas en seis distintos dominios (.edu,
.gov, .mil, .com, .org y .net). Los dominios .edu, .gov y .mil
pertenecen a instituciones educativas, gubernamentales y
militares respectivamente. Estas fueron las pioneras en
ARPANET. Por otra parte el dominio .com pertenece a
instituciones comerciales, .org a organizaciones sin fines de
lucro y .net a redes que sirven de enlace o apoyo a otras
redes.
El Atari Jaguar.
Martin Brennan y John Mathieson fundaron su propia
empresa, Flare 1, ydesarollaron una consola de
multiprocesadores. Quando terminaron el diseñio necesitaban
un socio y junto con Atari fundaron Flare 2 para finalmente
realizar el sistema. En esos tiempos todavia exista un
prototipo de 32-Bit: El Atari Panther. Pero tuvieron problemas
con el hardware y ademas los competidores, Nintendo y Sega,
estavan desarollando sistemas mas potentes, se tomo la
decision de segir el desarollo del Atari Panther, tres años
despues terminaron el Atari Panther II, finalmente se nombro
Atari Jaguar y fue la primera consola de 64-Bit en el mercado.
Atari corp. firmo un contrato de $500 milliones de dolares con
IBM y ellos empezaron con la producción de Atari Jaguar en
altas cantidades. Pero IBM no influio el diseño del los
procesadores del Jaguar.
El Turbo Grafx 16/PC Engine de NEC.
1987
El Turbo Grafx 16/PC Engine de
NEC fue la primera consola de 16Bit. Por lo menos el chip de gráfica
era de 16-Bit, aunque la CPU era
aun de 8-Bit. Al principio la consola
se vendio desde el 30.10.1987 en
Japón con el nombre "PC Engine", despues se lanzo al
mercado en E.U.A. con el nombre de "TurboGrafx 16" por
entonces en USD$190. En ese tiempo el hardware de la
consola era lo mas avanzado.
Tambien del PC Engine hubo una version portatil: el GT/Turbo
Express, que soportaba todos los juegos; algunos hasta mas
rapido que en la consola. Pero el Turbo Express tenia
los mismos problemas como el Atari
Lynx: Las pilas duraban poco tiempo y
en comparación con el Gameboy el GT
era muy grande y pesado. Pero con un
TV-Tuner hasta se
puede ver television
en la consola
La PC Engine fue la
primera consola de
CD-Rom con un precio adicional de USD$400 pero por lo caro
su venta no fue exitosa.
Windows 2.03.
Microsoft lanza Windows 2.03, muy parecido a la interfase de
la Macintosh y Apple les demanda; seis años y diez millones
después la corte falla a favor de Microsoft.
16 de Junio. El 80386SX.
1988
En 1988, Intel desarrollaba un poco tarde un sistema sencillo
de actualizar los antiguos 286 gracias a la aparición del
80386SX, que sacrificaba el bus de datos para dejarlo en uno
de 16 bits, pero a menor coste. Estos procesadores
irrumpieron con la explosión del entorno gráfico Windows,
desarrollado por Microsoft unos años antes, pero que no había
tenido la suficiente aceptación por parte de los usuarios.
También había habido algunos entornos que no habían
funcionado mal del todo, como por ejemplo el Gem 3, pero no
es hasta este momento cuando este tipo de entornos de
trabajo se popularizan, facilitando la tarea de enfrentarse a un
ordenador.
Tim Berners-Lee inventa el World Wide Web.
Entierran las Lisas.
1989
Xerox demanda a Apple por robar la interfase gráfica utilizada
con Lisa y Macintosh; después de vender alrededor de 60,000
Lisas, Apple descontinuó el modelo y enterró en un vertedero
de Utha las computadoras restantes.
El HDTV hace su aparición en Japón.
10 de Abril. El 80486DX.
El 10 de abril de 1989 aparece el Intel 80486DX, de nuevo con
tecnología de 32 bits y como novedades principales, la
incorporación del caché de nivel 1 (L1) en el propio chip, lo
que aceleraba enormemente la transferencia de datos de este
caché al procesador, así como la aparición del co-procesador
matemático, también integrado en el procesador, dejando por
tanto de ser una opción como lo era en los anteriores 80386.
Dos cambios que unido al hecho de que por primera vez se
sobrepasaban el millón de transistores usando la tecnología
de una micra (aunque en la versión de este procesador que
iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible
la aparición de programas de calidad sorprendente, entre los
que los juegos ocupan un lugar destacado. Se había pasado
de unos ordenadores en los que prácticamente cualquier tarea
compleja requería del intérprete de comandos de MS-DOS
para poder ser realizada, a otros en los que con mover el
cursor y pinchar en la opción deseada simplificaba en buena
medida las tareas más comunes.
El Atari Lynx.
El Lynx fue desarrollado por Epyx en 1987 bajo el nombre de
"Handy". Atari compro todo los derechos y sigio mejorando el
sistema
El Atari Lynx fue en su inico la primera consola portatil
("handheld") de 16 Bit en 1989 (Prozessador de 8 Bit, CPU de
grafica 16 Bit, igual como el NEC TurboGrafx 16/PC Engine) y
ademas el primer sistema portatil con pantalla a color. De
todos modos otra vez fue un medio fracaso de Atari que
estaba tratando de entrar de nuevo al mercado de
videojuegos. Aunque en su tiempo el Atari Lynx era
claramente superior a sus concurrentes, por su precio caro no
entro bien al mercado.
Pero el Atari Lynx tambien ofrece unas
opciónes especiales como opción para
zurdos (presionando un botton la
imagen gira por 180 grados), opción de
multiplayer con la que puedes
conectarhasta 8 (!) consolas por el ComLynx-Port. Luego se
inicio el Atari Lynx II, pero con pocos cambios tecnicos. Es un
poco mas chico y ligero que el original, la batteria dura un
poco mas (antes 4 entonces 5 horas). Ademas la pantalla del
Atari II se puede apagar en una pausa de juego para ahorrar
batteria, el orignal tenia un autopower-off despues de cinco
minutos.La canexión de audifonos era stereo, pero las bocinas
un poco mas bajas.
El Gameboy.
El Gameboy se inico en Abril 1989 primero en el mercado
Japones. Pronto saco del mercado a sistemas tecnicamente
superiores como el GameGear, Atari Lynx, Nomad
y TurboExpress y desde entonces domina el
meracdo de videojuegos portatiles. En 1991 en
Inglaterra fue elejido como el jugete del año. Por
sus buenos juegos y bajo precio el Gameboy salio
ser sorprendemente largo de vida. En 1996, 7 años
(!) despues de su inicio oficial, Nintendo inicio el
Gameboy-Pocket, con un display mejorado, tiempo
de standby mas largo y una caja metalica chica. 1997 vinieron
Gameboys en color. Como extras hay aumentadores de
pantalla, luz para la pantalla, differentes cajas, Snapshot
Camera, impresora y un adapdador para 4 Jugadores, que fue
vendido por Nintendo junto con un juego de carrera de
Formula Uno. Para este sistema se producieron mas de 450
juegos.
El Sega Genesis o Megadrive.
El Megadrive (Genesis en Estados Unidos) fue la primera
consola de 16-Bit. El Megadrive se inicio en 1989 en
Japan y 1990 en los Estados Unidos. Pronto saco el Turbo
Grafx 16 del mercado de videojuegos y fue el mayor
competidor para el SNES que se inico un año despues. Con el
Power Base Converter los que tenian un Sega Master System
podian usar sus juegos tambien con el Megadrive. Asi que el
Megadrive emula el SMS... :-). Tambien se hicieron unos
intentos, de combinar el Megadrive con una PC: En japon se
vendio el Teradrive, y en inglaterra Amstrad vendio muchos
MegaPC´s, cuales se pueden usar como PC o Megadrive.
Los juegos del Megadrive eran en la majoria differentes al los
de su rival, el SNES. Los juegos del SNES eran amables y
bonitos con su grafica de bonbon como en el Jump&Run con
el famoso hojalatero Mario. Los juegos de Megadrive eran de
mas action. Su character principal "Sonic The Hedgehog" con
sus espinas punk era un personaje mas agressivo y rapido,
aunque mucha gente opina, que a los juegos de Sonic le falta
la variedad en comparación con la serie de Mario. De todos
modos muchos Megadrive´s solamente se vendieron por esa
serie exitosa de juegos. Ademas Sega tenia una grande
collection de juegos de arcade, de cuales muchos se
convirtieron para el Megadrive. Se programmaron mas de 600
juegos para este sistema.
El SuperGrafx.
Fines de 1989 NEC libero el SuperGrafx, una version
mejorada (pero todavia de 8-Bit) del Engine original. El tiempo
de las consolas de 8-Bi ya estaba terminando, pero la primera
producción de 50.000 piezas se vendio en los primeros dias.
Hu-Card A pesar de la technologia de 8-Bit de la CPU la PCEngine era relativamente buena y conocida por sus
converciónes buenas de juegos de arcade. La version para la
PC-Engine del classico shoot´em up R-Type de Arcade hasta
hoy es considerada como una de las mejores converción para
una consola.
Sale Windows 3.0 y las ventas de Microsoft llegan a un
billón.
El fin de ARPANET.
En 1990 ARPANET deja de existir, pero deja un legado que
continua creciendo exponencialmente. Aunque el propósito
original de la "red de redes" (Internet) ha ido sufriendo
cambios, esta sigue siendo muy popular en la comunidad
científica. Posiblemente pueda ser considerado el instrumento
más importante de la investigación del siglo 20.
1990
En la década pasada el Internet alcanzo una atención
importante sumado a un crecimiento espectacular. Su acceso
se ha movido desde el sector militar y de investigación, a
escuelas, sectores públicos y comerciales.
El GameGear.
El GameGear es una consola portatil con pantalla a colores de
Sega. El GameGear se inicio en 1990 como contesta al
Gameboy de Nintendo. Sin duda el GameGear
era tecnicamente superior al
Gameboy, pero no logro
establecerse en el mercado. La
promocion del Gameboy era
mejor y tambien porque
simplemente el GameGear es
mas grande y pesado que el Gameboy y en una consola
portatil, eso cuenta. Mas de 200 juegos fueron programados
para este sistema.
El GameGear es compatible con los juegos del Sega Master
System usando un adaptador.
El Neo·Geo.
El Neo·Geo en su tiempo era una pieza
impresionante de Hardware y adelantada para
su tiempo. SNK ("Shin Nihon Kikaku" que
significa algo como "nuevo projecto de Japón")
lo inicio 1990 en Estados Unidos. En ese
tiempo empesaba el exitó de las consolas y
las computadoras de 16-Bit y los jugadores ya
no estaban tan impresionados por las
maquinas de Arcade. Quando SNK anunció su
Neo·Geo mucha gente del mercado
prognostico una quiebra para SNK. Tambien
porque SNK hasta entonces por años solo
habia producido juegos para Nintendo. La serie de "Ikari
Warriors" fue exitosa, pero SNK no era de
los grandes del mercado.
Poco despues del release de la maquina de
arcade se anunció la consola de Neo·Geo,
que tuvo la hardware identica. Asi que los
juegos para la consola de Neo·Geo eran los
mismos como en las maquinas de arcade de SNK. Muchos
jugadores les gusto eso, pues podian jugar
sus juegos favoritos de arcade ahora en
casa.
Por su precio extremamente alto la venta
del Neo·Geo no fue realmente muy exitosa.
El Neo·Geo costaba $650 dolares, loscartridges mas de $200
dolares asi que fue una consola casi solamente para
aficionados. El precio fue tan alto por la grande memoria de la
maquina. Cada cartridge soportaba hasta 330 Mbit (42 MB) y
el Neo·Geo tenia 56 MBit (7 MB RAM). Pero con eso el
Neo·Geo tambien podia sostener 4(!) juegos al mismo tiempo
en la meroria y ofrezer graficás con mucho detalle.
El Super Nintendo (SNES).
Por una cooperación con NEC el Turbo Grafx 16 hiba a ser el
nuevo sistema de Nintendo, pero entonces Nintendo tomo otra
decision y produjo su propio sistema: el Super Nintendo
Entertainment System (SNES)/Super Famicon (SFC) en japon.
El inicio en japon fue el 21.11.1990 y en Estados Unidos en
septiembre 1991. Por el buen sonido y unas graficás buenas
mucha gente se intereso por ese nuevo sistema. Tambien el
exito se debio a la venta del Hit de ese entonces: "Street
Fighter II" para el SNES. La unica desventaja en comparación
con el Megadrive fue que la CPU del SNES era un poco mas
lenta. Esa decisión tambien se tomo, porque en Japon los
juegos de RPG son los mas favoritos. Muchas empresas de
juegos tuvieron soluciones para ese problema de la CPU
relativamente lenta: se vendieron chips especiales con los
Gamepacks, como el conocido SuperFX-Chip. Nintendo hasta
hoy ha vendido 20 millones de SNES en los Estados Unidos y
46 millones mundialmente. Se
producieron mas de 700 juegos para ese
sistema. Mas los juegos del NES y del
Gameboy que con ayuda de los
Adaptores Super 8/Tri-Star y Super Game
Boy tambien se pueden jugar en el SNES. El SNES haste hoy
se sigue vendiendo pero las compañias ya no producen
juegos para ese sistema.
22 de Abril. El 80486SX.
1991
Por su parte, Intel volvió a realizar, una versión del 486. Se
trataba del 80486SX, idéntico a su hermano mayor salvo que
no disponía del famoso co-procesador matemático
incorporado, lo que suponía una reducción del costo para
aquellas personas que desearan introducirse en el segmento
sin necesidad de pagar una suma elevada.
5 de Octubre. Linux 0.02.
Linus Torvalds anunció la primera versión "oficial" de Linux, la
0.02. Ya podía ejecutar bash (el shell de GNU) y gcc (el
compilador de C de GNU).
Marzo. Linux 0.95.
Linux saltó de la versión 0.03 a la versión 0.10 al tiempo que
más gente empezaba a participar en su desarrollo. Tras
numerosas revisiones, se alcanzó la versión 0.95, reflejando la
esperanza de tener lista muy pronto una versión "oficial".
1992
Se crea la Internet Society.
Para el 1992 se crea el Internet Society con el propósito de
estadarizar protocolos en el Internet y proveer organización a
tan creciente movimiento. Ese mismo año NSF crea el
InterNIC para proveer servicios de información a la comunidad
del Internet y actualiza su backbone a T3 (44.736Mbps). Para
ese momento el número de computadoras conectadas
superaba el millón.
1993
Los Personal Digital Assistants (PDA o handheld
computers) son introducidas.
Marc Andreesen y Eric Bina diseñan Mosaic, el primer
navegador gráfico.
Debuta la Newton de Apple.
22 de Marzo. Sale el Pentium.
Sale el Pentium, conocidos por P5 en el mundo de la
informática mientras se estaban desarrollando, y de los que la
prensa de medio mundo auguraba un gran futuro, tal y como
así ha sido. Estos procesadores pasarán a la historia por ser
los primeros a los que Intel no los bautizó con un número, y sí
con una palabra. Esto era debido a que otras compañías
dedicadas a la producción de procesadores estaban utilizando
los mismos nombres puesto que no se podía registrar una
cadena de ellos como marca, y por lo tanto, eran de dominio
público. De modo que a Intel no le quedó más remedio que
ponerle una palabra a su familia de procesadores, que
además, con el paso del tiempo, se popularizó en los Estados
Unidos de tal forma, que era identificada con velocidad y
potencia en numerosos cómics y programas de televisión.
Estos procesadores que partían de una velocidad inicial de 60
MHz, han llegado hasta los 200 MHz, algo que nadie había
sido capaz de augurar unos años antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la
tecnología de .8 micras, con lo que se lograba realizar más
unidades en menos espacio. Los resultados no se hicieron
esperar, y las compañías empezaron aunque de forma tímida
a lanzar programas y juegos exclusivamente para el Pentium,
hasta el punto que en este momento quien no posea un
procesador de este tipo, está seriamente atrasado y no puede
trabajar con garantías con los programas que actualmente hay
en el mercado. Algo que ha venido a demostrar la aparición
del nuevo sistema operativo de Microsoft Windows 95, que
aunque funciona en equipos dotados de un procesador 486, lo
hace sin sacar el máximo partido de sus funciones.
Diciembre Linux 1.0.
El núcleo de Linux estaba en la revisión 0.99.pl14, en una
aproximación asintótica al 1.0. Actualmente, el núcleo se
encuentra en la versión 1.1 parche 52, y se acerca la 1.2.2.
El Atari Jaguar (Jaguar 64 oficialmente).
Se presento en noviembre 1993 en Estados Unidos y en
otonio 1994 en todo Europa y fue la primera consola de 64-Bit,
3 años antes del Release del Nintendo 64.
Desde 1994 tambien Comptronix en Colorado Springs empezo
con la producción del Jaguar. En la consola se realizaron
clasicos como Rayman, Tempest 2000, Alien vs. Predator,
Iron Soldier 1 y 2 y mas. En otono 1995 al fin se libero el
esperado Jaguar CD-ROM (con una mejor correction de
errores que el CD de la Playstation o del Sega Saturn).
Aunque la consola se vendia bien en Estados Unidos en 1996
desaparecio de las revistas de juego y se considera a ver sido
un "Flop".
El GPS es introducido en los Estados Unidos.
Marc Andreessen ayudan a fundar Netscape.
Se eliminan las restricciones comerciales de Internet.
El año 1994 fue sumamente importante en la historia del
Internet. En este año se elimina las restricciones comerciales
existentes hasta entonces. Es pues que un mayor interés de
parte del sector privado y comercial hace que el Internet llame
la atención de los medios. Para fines de 1994 había más de
3.8 millones de nodos registrados y más de 30 millones de
usuarios estimados. Las oportunidades comerciales,
educativas y de acceso a la información para todo tipo de
aplicación son realmente numerosas. Esto unido a la des
centralizada organización da un sentido de "libertad" donde se
eliminan barreras geográficas y sociales.
1994
Las últimas estadísticas demuestran que el crecimiento
exponencial continúa y se estima en más de 19 millones el
número de nodos en esta gran red de redes (7/97).
El Sega 32X.
En fin de noviembre 1994 en E.U. se libero el
Sega 32x, un add-on para el Megadrive. El
32x aumento la capacidad del procesador y
mejoro la gráfica.
Neo·Geo CD.
En 1994 SNK inicio el Neo·Geo CD. Con esa nueva consola
se pudieron bajar los costos de produción de los grandes
chips de rom. Pero con $300 dolares la consola todavia no era
nada barrata. La gran desventaja fue la velocidad del transfer
de datos, porque el CD-ROM era un single-speed. La majoria
de los juegos de SNK eran de peleas y requerian un transfer y
accesso a los datos mas rapido. Tiempo de mas de un minuto
para iniciar un juego y 20-30 segundos entre los niveles o
rounds de un juego eran normal. Mas tarde se inico una
version con double-speed, pero solamente se vendio en el
mercado japones. Ademas en ese tiempo el mercado de
videojuegos ya era dominado por Nintendo´s Snes y Sega´s
Genesis/MegaDrive.
El PC-FX.
El PC-FX de NEC fue el sucedor de 32-Bit- despues del PCEngine/TurboGrafx 16 y fue liberado el 23.12.1994. El diseño
es muy especial, pues la consola no es plana , si no esta
parada como un PC-Tower. Se
tomo este diseño para tener mas
espacio para extensiónes.
Ademas este sistema tambien no
tiene habilidades de 3D, como
las otras comsolas de 32-Bit, si
no es capaz de FMV (Full Motion
Video) y juegos de 2D muy
avanzados. Muchos juegos vienen con unas animaciones
digitalisadas de anime excelentas.
PC-FX Control Pad Existen como 60 juegos para este sistema.
El Playstation.
El Sony Playstation, tambien conocida como
psx, del gigante de electrónica Sony de
Japón,se inicio en diciembre 1994 en Japón y
en septiembre 1995 en los Estados Unidos de
América. La venta en los Estados Unidos de
América fue todo un exito: despues del primer
fin de semana que la Playstation estuvo en
venta, se vendieron mas de 100.000 piezas. En el principo
hubo una cooperación de Sony con Nintendo para producir el
SNES con CD-ROM para combatir contra el Sega-CD. El
SNES-CD nunca se termino. Las empresas ya no trabajaron
juntas y el Playstation entro al mercado contra el Nintendo 64,
que todavia usa la technologia de cartridges/cartuchos.
La televisión con pantalla plana es introducida al
mercado.
1995
Micro Soft lanza el Windows 95 primer sistema para PC
basada en Intel que incluía en GI en el propio sistema
operativo.
Pixar Animation Studios y Disney lanzan el primer largo
metraje hecho completamente en computadora, Toy
Story.
La tecnología del DVD es estandarizada.
Jeff Bezos funda Amazon.com.
Netscape se lanza público.
En Abril la NSF dejó de subsidiar lo que se había
considerado "el backbone del Internet"
27 de Marzo. Aparece el Pentium Pro.
La aparición, el 27 de marzo de 1995, del procesador Pentium
Pro supuso para los servidores de red y las estaciones de
trabajo dio un aire nuevo, tal y como ocurriera con el Pentium
en el ámbito doméstico. La potencia de este nuevo procesador
no tenía comparación hasta entonces, gracias a la arquitectura
de 64 bits y el empleo de una tecnología revolucionaria como
es la de .32 micras, lo que permitía la inclusión de cinco
millones y medio de transistores en su interior. El procesador
contaba con un segundo chip en el mismo encapsulado, que
se encargaba de mejorar la velocidad de la memoria caché, lo
que resultaba en un incremento del rendimiento substancioso.
Las frecuencias de reloj se mantenían como límite por arriba
en 200 MHz, partiendo de un mínimo de 150 MHz. Un
procesador que en principio no tiene muchos visos de saltar al
mercado doméstico, puesto que los procesadores Pentium
MMX parecen cubrir de momento todas las necesidades en
este campo. No podemos asegurar que en un futuro cercano
esto no acabe ocurriendo, pues en el mundo de la informática
han sucedido las cosas más extrañas, y nunca se sabe por
dónde puede tirar un mercado en constante evolución .
18 de Septiembre. El Pentium Overdrive.
El 18 de septiembre de 1995 Intel anuncia la disponibilidad de
un nuevo modelo procesador de mejora Pentium Overdrive a
83 MHz (además del modelo a 63 MHz que ya existía) que
permite la actualización de los
microprocesadores 80486 DX, DX2 y SX.
Compatible pin a pin con estos
microprocesadores en Pentium Overdrive
integra la tecnología del Pentium en 3,3
voltios y 0'6 micras.
Aparte de ser como un Pentium genuino cabe destacar la
presencia de una memoria cache de 32 Kb, un regulador de
tensión para reducir la tensión de 5 a 3,3 voltios, disipador y
ventilador integrado y una circuitería interna que incrementa
en dos veces y media la frecuencia del bus del sistema (33
MHz * 2'5 = 82'5 MHz). El incremento medio en las
prestaciones respecto a un 80486 a 66 MHz es de un 50 por
ciento aunque en aplicaciones puntuales (AutoCAD 13) puede
ser de un 96 por ciento, lo que lo sitúa en las prestaciones de
un Pentium genuino a 75 MHz.
El Sega Saturn.
Sega Saturn apareció en el mercado para paliar la crisis de la
compañia que gracias a "maravillas" como
32X o MEGA CD se habia producido. Aunque
tambien influyó la crisis general que se
produjo despues del boom del 91y92 Sega
creo una maquina potente pero no conto con
que sony estaba creando la psx. Cuando sony publicó las
caracteristicas tecnicas de psx en Sega sonó la alarma de
fracasos pero lo unico que pudieron hacer fue incluir otro
procesador identico ala cpu ,el SH 2, lo que encarecio la
maquina y complico su progamacion hasta limites
insospechados. En sega declararon que solo uno de cada cien
programadores podia esprimer la consola al maximo. Esto
junto a una pesima campaña de marketing produjo que sony
trunfara en un mercado para ellos desconocido.
El Virtual Boy.
El Virtual Boy fue seguramente el major fracaso en la historia
de Nintendo. En Noviembre en la expo de Shoshinkai el Virtual
Boy de 32-Bit fue presentado la primera vez al publico. Lo
especial de esta consola es que ofrece grafica de 3D estilo
Virtual Reality, pero solamente en los colores negro y rojo. El
sonido tambien fue mejorado solamente un poco en
comparacion con el Gameboy. La consola fue anunciada
portatil, pero no es posible, porque el Headset
fue muy pesado para usarlo, y las manos se
necesitan para usar el controller.
El 21.07.1995 el Virtual Boy fue liberado en el
mercado officialmente en japon y en septiembre
del mismo anio en Estados Unidos. Como
solamente se vendieron 200.000 unidades mundialmente,
pronto Nintendo se dio cuenta que nunca alcansarian el éxito
que tuvieron con el Gameboy; por eso Virtual Boy nunca fue
liberado en Europa.
Nintedo dijo en sus comerciales que pudieras conectar dos
Virtual Boys por un cable de Link, pero nunca se vendio y
ningun juego soportaba esa possibilidad. Ademas faltaban
juegos realmente buenos y la imagen de 3D en negro y rojo
despues de un tiempo provocaba dolor de cabeza a los
jugadores.
Solamente se liberaron 20 juegos para el Virtual Boy: 3DTetris (us) Galactic Pinball (jap/us), Golf (us), Insmouse
Mansion (jap), Jack Bros (jap/us), Mario Clash (jap/us), Mario's
Tennis inkl. Box (jap/us), Nester's Funky Bowling (us), Panic
Bomber (jap,us), Space Squash (jap), Red Alarm (jap/,us),
T&E Golf (jap), Teleroboxer (jap/us), Vertical Force (jap/us),
Virtual Fishing (jap) , Virtual League Baseball (us), Virtual
Professional Baseball '95 (jap), VTetris (jap), Wario Land
(jap/us), Waterworld (us)
Debuta la Palm Pilot y el Web TV.
El Nintendo64.
1996
Esta primera presentación fue el éxito esperado, sobre todo el
Jump&Run en 3D Mario 64 dejo a la gente con la boca abierta.
La fecha de venta siempre fue retrasada varias veces, pues el
programador de Mario 64, Shigeru Miyamato siempre pedia
mas tiempo para segir mejorando el juego. En el 23.06.1996
llego el momento. El Nintendo 64 con su procedador de 93,75
MHz era superior a sus concurentes y el nuevo analogpad fue
una una pequiena revolution en los controllers de juegos. El
inicio en japon no fue tan bueno como esperado, porque no
hubo la cantidad de juegos que la gente esperaban. La causa
fue la estrategie del "Dreamteams". Nintendo quiso que las
Third Partyfirms, solamente producieran exclusivamente
juegos para el Nintedo 64. Solamente pocas empresas
aceptaron como Rare (Donkey Kong 1-3 para SNES, Blast
Corps, Golden Eye, Donkey Kong 64). Pero otras empresas
buenas como Capcom y Square Soft pararon la produción de
juegos para el Nintendo 64 y trabajaron para
los competidores.
Asi fue que Nintendo por primera vez perdio
en su mercado principal que es japon partes
del mercado a un competidor: Sony. En Estados unidos y en
Europa el inico fue bastante mejor, acompañado por una
promoción gigante. Aunque Nintendo ya poco a poco se aleja
de su estragie del "Dreamteams", todavia la produción de
juegos no es optimal. Sobre todo por la tecnologia de los
cartuchos que es mas ariesgada y cara que los CD-ROMs
baratos y con mas capcaidad. Ayuda pudiara dar el 64-DD: un
3 3/4 Magnetic Disc-Drive externo con una capacidad de 64
MByte. Pero lo mas probable es que (igual como el N64Modem) solamente se va a vender en el mercado japones. Un
exito tambien no es muy seguro, pues se sabe que la gente
que tienen consolas no estan dispuestos gastar mucho en
upgrades como para una pc, como se vio en el fracaso de
SEGA's 32X-Adaptor y del discdrive japones para el NES.
Los DVD llegan a los Estados Unidos.
1997
La especificación DVD, según algunos fabricantes, Digital
Vídeo Disc, según otros, Digital Versatile Disc, no es más que
un nuevo intento por unificar todos los estándares ópticodigitales de almacenamiento, es decir, cualquier sistema de
grabación que almacene imágenes o sonido. DVD abarca
todos los campos actualmente existentes, por lo que, si llega a
implantarse, un mismo disco DVD podrá utilizarse para
almacenar películas, música,
datos informáticos, e incluso los
juegos de consolas.
7 de Mayo. Intel lanza el
Pentium II.
Intel lanza el Pentium II, que
viene a ser simplemente un nuevo ingenio que suma las
tecnologías del Pentium . Como resultado, el Pentium II es el
procesador más rápido de cuantos ha creado Intel.
Diamond Multimedia introduce el MP3.
El reporte Starr es lanzado a través de internet.
El Sega Dreamcast (DC).
El Sega Dreamcast de inicio el 27.11.1998
en Japón. La venta en los Estados Unidos
de América fue todo un éxito, se
vendieron mas de 150.000 piezas el
1998
primer dia.
El NeoGeo Pocket.
NeoGeo Pocket fue liberado el
28.10.1998 en japon. Es mas pequenio
que el Gameboy y ofrece mejores Animationen.
Ahora tambien hay una version a color del NeoGeo Pocket,
que es superior al Gameboy.
Es el momento de Linux.
1999
AOL completa la adquisición de Netscape.
Microsoft, con 23,320 empleados llega a los $14.4
billones en ventas.
ntes del primer computador
Desde el principio del tiempo los hombres siempre han inventado cosas para
que la vida fuera más cómoda.
Hace 50.000 años, el hombre primitivo aprendió a hacer fuego para obtener
calor. Hace 5.000 años, alguien inventó la rueda para poder mover objetos con
más facilidad. Hace unos 4.000 años, los chinos inventaron un objeto para
solucionar mejor los problemas de matemáticas: el ábaco.
El ábaco no podía realizar la mayor parte de las tareas que realiza un
computador, pero sí hacía algo importante que hacen los computadores: con él
se resolvían los problemas de matemáticas más fácilmente.
Ya en el siglo XVII, en 1641, un francés llamado Blaise Pascal hizo un aporte
importante para la historia del computador, inventó una máquina de sumar, a
la que dio el nombre de Pascalina. Podía sumar y restar largas columnas de
números sin cometer ningún error.(cfr. Marquès, P. et al. "Cómo introducir y
utilizar el ordenador en la clase". p. 16.)
Unos años más tarde, un alemán llamado Gottfried Leibnitz mejoró la
máquina de Pascal: inventó una calculadora. Aparte de sumar y restar,
también podía multiplicar, dividir, y hallar la raíz cuadrada de un número. Se
accionaba manualmente. (cfr. Tison, C. et al. "Guía para niños sobre
ordenadores". p. 3.)
Casi doscientos años más tarde apareció otro invento importante. Era un telar
automático, inventado en 1801 por Joseph-Marie Jacquard. El telar utilizaba
información codificada para fabricar la tela.
Esta nueva máquina entrelazaba los hilos mientras se pedaleaba. Jacquard
hizo unos agujeros en una tarjetas y las juntó para hacer una secuencia. El
telar tomaba información de los cartones y la usaba para fabricar los tejidos.
(cfr. Idem. pp. 3 - 4)
En 1833, Charles Babbage y Lady Augusta Ada Byron, la Condesa de
Lovelace, empezaron a trabajar juntos en un invento al que llamaron
calculadora analítica. Querían que funcionase por sí sola, sin que nadie la
accionara. Buscaron la manera de dar información a la máquina, que hiciera
algo con ésta y que devolviera otra información.
En 1839, Babbage se dedicó por entero a trabajar en pequeñas computadoras.
Lovelace ya había completado sus teorías sobre cómo dar instrucciones al
computador. Ninguno de los dos llegó a construir esta máquina. Hacían falta
miles de pequeñas piezas construidas a la perfección, y en el siglo XIX no
había herramientas que fabricasen piezas tan pequeñas y perfectas. La
calculadora no se finalizó nunca.
B. El Primer Computador
Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el
gobierno empezó uno, pero había tanta gente en Estados Unidos, que tardaron
8 años en contarlos a todos y en poner información sobre dónde vivían y a qué
se dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un
concurso para encontrar una manera mejor de contar gente. Herman Hollerith
inventó una máquina denominada máquina tabuladora. Esta máquina ganó el
concurso, y el gobierno la usó en el censo de 1890.
La máquina de Herman usaba tarjetas perforadas, y cada agujero significaba
algo. Un agujero significaba que la persona estaba casada, otro, que no lo
estaba. Un agujero significaba que era de sexo masculino, otro, de sexo
femenino. La electricidad pasaba a través de los agujeros y encendía los
motores, que a su vez activaban los contadores.
En 1890, sólo hicieron falta seis semanas para realizar el primer recuento
sencillo. El recuento completo se realizó en sólo dos años y medio.
La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias
a otros países para que realizasen sus censos. Pero Herman no se paró en este
invento. Comenzó una empresa llamada International Business Machines.
Hoy en día es una de las empresas informáticas más grande del mundo: IBM.
(cfr. Idem. pp. 9 - 10.)
A principios del siglo XX, muchas personas de todo el mundo inventaron
computadores que funcionaban de maneras similares a la máquina tabuladora.
Hacían experimentos para que funcionaran más rápido, y realizaran más tareas
aparte de contar.
C. La Primera Generación de Computadores
Alan Turing, en 1937, desarrolló el primer auténtico proyecto de un
computador. En 1944, en la Universidad de Harvard, crearon el primer
calculador electromecánico, el Mark1. Era lento y poco fiable.
En 1945, John von Neumann concibió la idea de un computador que se
manejaba mediante instrucciones almacenadas en una memoria. Este concepto
moderno de computador se plasmó, en 1946, en un prototipo llamado ENIAC,
en los Estados Unidos, a partir de una iniciativa de las fuerzas armadas de ese
país. Medía 30 metros de longitud, una altura de 3 y una profundidad de 1.
Utilizaba 18.000 válvulas, conectados a 70.000 resistencias, 10.000
condensadores y 6.000 interruptores. (cfr. Pentiraro, E. Op. cit., p. 2.)
En 1951, la compañía Sperry Univac, comenzó la producción en serie del
primer computador electrónico, el UNIVAC I. Sperry introdujo dentro del
UNIVAC la información sobre las elecciones presidenciales estadounidenses
de 1952. Antes de que se anunciasen los resultados, UNIVAC ya había
predicho que Dwight D. Eisenhower ganaría las elecciones.
A partir de ese momento todos los computadores funcionarán según los
principios de Von Neumann.
D. La Segunda Generación de Computadores
En 1948, un grupo de personas que trabajaban en el laboratorio Bell dieron el
primer paso hacia un computador pequeño y fácil de usar, al crear el
transistor. Un transistor controla la cantidad de energía eléctrica que entra y
sale por un cable.
Sólo en 1958 se comenzaron a producir en serie los primeros computadores
que utilizaban este pequeño bloque de silicio. Este mineral es un material
semiconductor que contiene impurezas que alteran su conductividad eléctrica.
Así, el computador se vuelve más económico, más rápido y más compacto.
E. La Tercera Generación de Computadores
Entre finales de los años sesenta y principios de los setenta se prepara otro
importante cambio: el circuito integrado. Sobre una pieza de silicio
monocristalino de reducido tamaño se encajan piezas semiconductoras. (cfr.
Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad de proceso ya
que se requiere una menor cantidad de tiempo para abrir y cerrar los circuitos.
F. La Cuarta Generación de Computadores
El circuito integrado se utilizó en los computadores hasta mediados de los
setenta. En 1971, una empresa norteamericana llamada Intel desarrolló un
proyecto de circuito integrado distinto, cuya característica fundamental era la
posibilidad de programarlo como un auténtico computador. De esta forma
nace el microprocesador.
A partir de 1975 se produce una verdadera revolución con este dispositivo de
un par de centímetros de longitud. Las diferentes empresas construyen
computadores basándose en el chip de Intel. Cada vez más instituciones
adquieren computadores para optimizar sus procesos.
El chip de silicio es más pequeño que una moneda, pero contiene toda la
información que el computador necesita para funcionar. Esto hace que los
computadores sean mucho más rápidos y que gasten menos energía.
"Hoy en día, no hace falta ser un científico de computadores para
manejar un computador. Algunos computadores son tan pequeños que
caben en un bolsillo, y se pueden conectar a un enchufe o ponerles
pilas. Los computadores pueden manejar la información de formas que
nadie se podía imaginar en los tiempos de Hollerith, razón por la que
actualmente son tan populares". (Tison, C. Op. cit., p 12.)
Pero la historia de los computadores aún no ha terminado. Constantemente se
están introduciendo nuevos avances técnicos. Lo que conocemos hoy como
computadores, es posible que en el futuro no sea tal y estemos en presencia de
tecnologías inimaginables en este momento. Lo mismo que le sucedió a
Babbage en el siglo pasado.