Download Historia de la Informática

Document related concepts
no text concepts found
Transcript
Historia de la Informática
http://www.informatica-pc.net/historia/historia.php
El origen de la informática hay que buscarlo en el inicio del desarrollo de métodos
de cómputo o cálculo por parte del hombre y el ingenio de diversos personajes
históricos (unos, avanzados para su tiempo y otros, que encontraban inspiración
en sus antecesores). Los saltos en el tiempo entre los avances históricos hay que
entenderlos analizando las circunstancias: los científicos veían muchas veces
cómo se frustraban sus intentos de materializar las ideas debido a las limitaciones
y/o necesidades de su época.
1.Primeros instrumentos de cálculo.
Hace 5.000 años los egipcios ya utilizaban las decenas numericas en los
jeroglíficos y es en esa época cuando se estima que surge el primer instrumento
de cálculo del que se tiene constancia, el ábaco. Su procedencia originaria es muy
discutida. En un principio se hacían los cálculos (sumas y restas) sobre unas
líneas hechas en la arena y utlizando piedras o semillas (Sáhara) o desplazando
estos mismos elementos por el interior de una caña abierta, como en la antigua
Mesopotamia. El intercambio cultural que se producía debido a la expansión del
comercio entre los pueblos y las conquistas bélicas llevaría a la modificación o
perfeccionamiento del ábaco. El formato con marco de madera, varitas metálicas o
hilos y bolitas móviles fue creado en China y modificado en Japón y en Rusia.
La dimensión que adquiere el ábaco dentro de la historia del cómputo es
comprensible cuando se tiene en cuenta que, incluso tras el paso de cinco
milenios, en la actualidad sigue siendo un objeto de uso común en China, Japón y
Rusia, sobre todo en algunas escuelas primarias.
1
2. Mentes precursoras.
En 1614 el escocés John Napier (1550-1617) publica una obra en
la que se explica por vez primera el uso de logaritmos, funciones
matemáticas que permiten transformar las multiplicaciones en
sumas y las divisones en restas, y en 1617 da a conocer el ábaco
rabdológico cuya función era calcular productos y cocientes.
Estaba compuesto por una tabla numerada en un lateral y varias
varillas de marfil. La peculiar tonalidad de este material hizo que el
invento recibiera el apelativo de huesos de Napier.
Unos pocos años más tarde, entre 1620 y 1630, aparece la
regla de cálculo, invento que se atribuye a William Oughtred
(1574-1660), reconocido matemático de la época y amigo de
John Napier. La regla de cálculo permite realizar operaciones
aritméticas mediante escalas basadas en los logaritmos: se
emplean líneas superpuestas de números que se desplazan,
permitiendo realizar los cálculos.
En 1623 el astrónomo alemán Wilhelm Schickard (1592-1635)
inventa la primera máquina de cálculo, a la que llamó reloj
calculador y que fue ideada para ser usada por su amigo
astrónomo Johannes Kepler, a quien escribió unas cartas en las
que adjuntaba diversos bocetos del invento y detallaba su
funcionamiento (usaba discos dentados), lo que sirvió para hacer
2
una reconstrucción a escala que está expuesta en el Museo de la Ciencia de
Munich. Esto fue posible gracias al historiador Franz Hammer que, en 1935 y
revisando la correspondencia que se conservaba de Kepler descubrió el invento
de Shickard perfectamente detallado.
El físico y matemático francés Blaise Pascal (1623-1662)
desarrolló en 1642 un calculador mecánico, primeramente
llamado Máquina aritmétca, y después Pascalina, para realizar
sumas que usaba un sistema de ruedas dentadas similar al que
ideó Schickard. Durante mucho tiempo se le consideró
erróneamente el inventor de la primera máquina de cálculo, e
incluso en la actualidad muchas fuentes lo citan como tal,
obviando la creación de su antecesor. Incluso uno de los
primeros lenguajes de programación informática lleva su nombre:
el lenguaje Pascal (1970).
Gottfried Wilhelm Leibniz (1646-1716), filósofo, matemático,
físico, jurista y político alemán, máximo exponente del
pensamiento barroco, tiene también un lugar importante dentro
de la historia de la informática. Aparte de la creación,
3
paralelamente a Newton, del cálculo infinitesimal, descubrió el cálculo diferencial y
fue el precursor de la lógica matemática, proponiendo un sistema binario para la
realización de cálculos. También inventó una máquina de cálculo que se llamó
calculadora universal, capaz de realizar sumas, restas, multiplicaciones, divisiones
e, incluso, raíces cuadradas. su elemento característico era un tambor cilíndrico
con nueve dientes de longitud variable, llamado rueda escalonada o rueda de
Leibniz, que se encuentra en prácticamente todas las calculadoras mecánicas
posteriores, incluso en algunas del siglo XX.
En 1801 el francés Joseph Marie Jacquard (1752-1834) inventó
un mecanismo para maquinaria textil que se basaba en el uso de
tarjetas perforadas. Unas placas o moldes metálicos perforados,
unidos por medio de correas, permitían contolar la creación de
complejos diseños textiles que confeccionaban las máquinas de
tejer. Posteriormente se utilizaría este sistema para reproducir
música en pianolas y organillos, y diversos juguetes mecánicos.
4
El matemático e ingeniero británico Charles Babbage (17911871) es considerado el auténtico padre de los ordenadores.
Debido a los numerosos errores que se producían en el cálculo
de tablas matemáticas, tuvo la idea de crear una máquina que
ejecutara ese trabajo, eliminando el error
humano, y facilitando la tarea de realizar
operaciones repetitivas. En 1822 presentó un
proyecto para el desarrollo de una máquina
diferencial, como él la llamó, en la Royal
Astronomical Society, capaz de resolver
polinomios de segundo grado mediante un método numérico
diferencial. Recibió una subvención para construir un modelo
más grande, tarea que acabó abandonando por los problemas ocasionados en la
fabricación de las piezas y sus ocasionales cambios de diseño para intentar
merjorar la máquina.
En 1833, Charles Babbage se centró en un nuevo proyecto: una máquina que
tuviera un propósito general, capaz de resolver múltiples problemas matemáticos.
La llamaría máquina analítica. Funcionaba a vapor y
constaba de un mecanismo de entrada y salida mediante
tarjetas perforadas basadas en el modelo de Jacquard,
una memoria para 1.000 números de 50 cifras, una unidad
de control para que las operaciones se realizasen en el
orden correcto y una unidad aritmético-lógiaca para los
cálculos. Incluso disponía de un sistema de impresión en
papel similar al que se usaba en varias décadas del siglo XX. Este
invento es considerado el primer ordenador de la historia.
Babbage contó con la colaboración de la matemática Ada Augusta
Byron (1815-1852), Condesa de Lovelace e hija de Lord Byron,
quien, fascinada por el trabajo del inventor, participó en el
patrocinio y la promoción de la máquina analítica, para la cual
escribió diversos programas para resolver ecuaciones
trascendentes e integrales definidas. De este modo se considera a
Ada Byron (también conocida como Ada Lovelace) como la
primera programadora de ordenadores del mundo. En su honor se llamó Ada al
lenguaje de programación multipropósito desarrollado en 1979 a instancias del
Departamento de Defensa de los Estados Unidos, que buscaba estandarizar los
numerosos programas que existían.
Charles Babbage murió sin lograr terminar de construir su gran invento, pero sus
ideas y diseños sentarían las bases para el desarrollo, décadas después, de los
ordenadores modernos.
5
George Boole (1815-1864), matemático y filósofo británico, hizo
público en 1854 un estudio sobre las leyes del pensamiento en las
que se basan las teorías matemáticas de la lógica y la
probabilidad, aplicando símblos a operaciones lógicas
estructurados según el álgebra convencional. Surge así el álgebra
de la lógica (álgebra de Boole), que el siglo siguiente sería
aplicado en la construcción de ordenadores y circuitos.
Herman Hollerith (1860-1929), ingeniero neoyorquino de origen
alemán, consiguió por vez primera automatizar el procesamiento
de grandes cantidades de información con la ayuda de un
aparato de propia creación: la máquina censadora o tabuladora.
En 1879 Hollerith comenzó a trabajar como asistente para la
oficina del censo. Ahí pudo comprobar la precariedad del
sistema manual que se utilizaba para censar a la población: en
1880 la población de Estados Unidos llegaba a los 50 millones
de personas, y el trabajo para hacer el recuento llevó 7 años y
medio. Eso le llevó a
desarrollar un sistema de cómputo
automatizado, y lo hizo diseñando una
máquina que utilizaba tarjetas en las que se
representaba la información (nombre,
dirección, sexo, edad, raza...) mediante
perforaciones, que eran detectadas por la
máquina,
clasificando
(tabulando)
debidamente la información según la lógica
de Boole. El censo de 1890 se logró
completar en 2 años y medio, a pesar de que
la población había aumentado en más del
20%. En 1896 Hollerith fundó su propia
compañía, Tabulating Machine Company, que en 1911 se fusionó con otras dos
empresas, formando así la Computing Tabulating Recording Company (CTR), esta
a su vez pasa a manos de Thomas Watson en 1914 y, diez años más tarde, en
1924, toma el nombre de International Business Machines (IBM).
6
3. Primeros avances en el siglo XX.
En el año 1900 se celebró en París el Congreso Internacional de Matematicas,
donde el matemático ruso David Hilbert formuló una pregunta clave: ¿existe un
método definido que pueda aplicarse a cualquier sentencia matemática y que nos
diga si esa sentencia es cierta o no?
En agosto de 1936, Alan Mathison Turing (1912-1954) publicó un artículo que
venía a dar respuesta a la pregunta formulada por David Hilbert mediante el
concepto de la Máquina de Turing: una máquina teórica que sería capaz de
transformar con precisión operaciones elementales previamente definidas en
símbolos en una cinta de papel. Prácticamente al mismo tiempo, en Estados
Unidos, Alonzo Church (1903-1995) dió a conocer el cálculo lambda, un trabajo
equivalente, naciendo así la Tesis de Church-Turing. De esta forma, Turing y
Church son considerados unos de los padres de la Ciencia de la Computación y la
Inteligencia Artificial.
Basándose en esos fundamentos, el ingeniero alemán Konrad
Zuse (1910-1995) construyó en 1938 la Z1, un prototipo de
computadora electromecánica de sistema binario que podía ser
programada de forma limitada y que usaba relés eléctricos para
automatizar los procesos, leyendo las instrucciones de una cinta
perforada. No llegó a funcionar correctamente debido a la
imperfección de alguna de sus piezas mecánicas. En 1940
concluyó la construcción de la Z2, modelo perfeccionado con
relevadores telefónicos, y en 1941 creó la Z3, que disponía de
una memoria de 64 palabras, un procesador con dos registros, una unidad de
lectura de cinta perforada y una unidad de control que decodificaba una
instrucción leída en la cinta perforada y transfería estos datos dentro de la
máquina y los dispositivos de entrada/salida. En el bombardeo aliado sobre Berlín
en 1944, la Z3 original fue destruida. Konrad Zuse no recibió el apoyo del régimen
Nazi, por lo que tuvo que financiarse todos sus proyectos y, en su momento,
tampoco obtuvo el reconocimiento del exterior que sí recibieron otros
contemporáneos. Aún así, fundó varias empresas propias y, en 1950, realiza la
primera venta de un ordenador de la historia, el modelo Z4, a una compañía suiza.
El ingeniero electrónico y doctor en física teórica
estadounidense de origen búlgaro John Vincent Antanasoff
(1903-1995) es considerado el inventor del ordenador digital
7
electrónico, después de una resolución judicial en la que se vió envuelto
indirectamente. Como le ocurrió a Konrad Zuse, Antanasoff quería encontrar una
manera de agilizar los numerosos cálculos que debía realizar, así que comenzó a
desarrollar ideas para la construcción de una máquina para tal fin, más eficiente y
rápida que las del momento. Según relató, Antanasoff concibió la idea final en una
taberna de Iowa (invierno de 1937), donde estableció los cuatro principios básicos
en los que se fundamentaría su invento: el uso de electricidad y componentes
electrónicos, un sistema binario, condensadores como elementos de memoria y un
sistema lógico para el cómputo y no la enumeración, como ocurría con las
máquinas análogas. La construcción se realizó entre 1937 y 1942, y Antanasoff
contó con la ayuda de Clifford Edward Benning, un alumno de ingeniería eléctrica
recomendado por un profesor. En diciembre de 1939
habían terminado un prototipo que funcionaba
correctamente y al que llamarían ABC (Antanasoff
Berry Computer). En 1940, Atanasoff asiste a una
lectura del Dr. John William Mauchly y le muestra su
máquina. Mauchly copia muchas ideas de la ABC para
diseñar junto con John Presper Eckert la ENIAC,
considerada la primera computadora digital electrónica
del mundo, hasta que en 1967 un litigio entre dos compañías, Honeywell y Sperry
Rand Corporation (que había adquirido la patente sobre la ENIAC), provocó que el
juez llamara a declarar a Antanasoff, de quien encontró referencias durante el
proceso y quien nunca supo del uso de sus diseños por parte de Mauchly y Eckert
para el desarrollo de la ENIAC. Tras seis años de litigio entre las dos empresas, el
que salió vencedor fue Atanasoff, quien no había demandado a nadie ni tenía
interés en el asunto y resultó ser el principal perjudicado por las grandes
compañías. El juez Earl R. Larson, de Minneapolis, sentenció el 19 de octubre de
1973 que la patente del ENIAC no era válida.
En 1938 se publicó la tesis del ingeniero eléctrico y matemático
estadounidense Claude Elwood Shannon (1916-2001), sobre la
teoría matemática de la comunicación, en la que demostró cómo
el álgebra de Boole se podía utilizar en el análisis y la síntesis de
la conmutación y de los circuitos digitales y cómo la combinación
de circuitos podía representar operaciones aritméticas y lógicas
complejas, relacionando así lógica y electrónica. Las
aportaciones de Shannon serían fundamentales también en el
desarrollo de la criptografía y los sistemas de compresión de
datos.
En febrero de 1944, el ingeniero estadounidense Howard
Hathaway Aiken (1900-1973), financiado por IBM, termina la
construcción del ordenador electromecánico MARK I, basándose
8
en los diseños de la máquina analítica de Charles Babbage. Tenía unas
dimensiones gigantescas: medía unos 15,5 metros de largo, unos 2,40 metros de
alto y unos 60 centímetros de ancho, su peso era de unas cinco toneladas y en su
interior se repartía un cableado de unos
800 kilómetros de longitud con casi 3
millones
de
conexiones.
Estaba
compuesta por unas 750.000 piezas,
cerca de 1500 interruptores rotatorios
de diez posiciones. Hacía uso del
sistema decimal en lugar del binario, y
contenía 72 registros mecánicos, cada
uno de los cuales podía almacenar 23
dígitos decimales más un dígito para el
signo. Para la compañía IBM fue el
comienzo de su larga y de sobra
conocida trayectoria como fabricante de
ordenadores.
En febrero de 1944, un proyecto secreto británico durante la
Segunda Guerra Mundial derivó en la construcción de Colossus, un
ordenador digital destinado a leer y descifrar los códigos alemanes,
quienes utilizaban la
máquina encriptadora
Enigma para el envío
de instrucciones al
frente. Hasta entonces
no
se
había
encontrado un sistema de descifrado
eficaz contra la máquina alemana.
Colossus fue diseñado por el
ingeniero británico Thomas Harold
Flowers (1905-1998) y estaba
compuesta originalmente por 1.500
válvulas electrónicas (tubos de vidrio
al vacío), un lector fotoeléctrico que
recibía los datos mediante una cinta perforada, poseía una memoria de cinco
caracteres de cinco bits, su velocidad de proceso era de 5.000 hercios y empleaba
el sistema binario. Tenía unas medidas de 2,25 metros de alto, 3 metros de largo y
1,20 metros de ancho. Hasta el final de la guerra se construyeron varios modelos
más de Colossus, contando con la participación de Alan Turing.
4. Primera generación: tubos de vacío (1946-1959).
9
El 15 de febrero de 1946 se hace una presentación pública en
la Universidad de Pennsylvania del ENIAC, acrónimo inglés
de Electronic Numerical Integrator And Computer (integrador
electrónico numérico y computador). Fue el primer
computador digital electrónico de propósito general,
construido
conjuntamente
por el ingeniero
John
Presper
Eckert (1919-1995) y el físico John
William Mauchly (1907-1980). Pesaba
32 toneladas y medía 2,40 metros de
ancho por 30 de largo. Estaba
compuesto por 17.460 válvulas, 7.200
diodos de cristal, 1.500 relés, 70.000
resistencias, 10.000 condensadores y
5
millones
de
soldaduras,
produciendo tal calor que la temperatura de la sala en que se encontraba llegaba a
los 50ºC. Disponía de capacidad para resolver en un segundo 5.000 sumas y 360
multiplicaciones, aunque para reprogramarla era preciso cambiar de posición las
conexiones de los cables, lo que requería un trabajo muy laborioso. El Ejército de
los Estados Unidos hizo uso del ENIAC para el cálculo de tablas balísticas.
En 1951 hace aparición la UNIVAC, acrónimo de Universal
Automatic Computer (computadora automática universal),
creada por Eckert y Mauchly. Se fabricó comercialmente,
siendo vendida a la Oficina de Censos de los Estados
Unidos. Estaba constituida por 5.200 válvulas, tenía una
velocidad de proceso de 2,25 megahercios y una memoria
de 1.000 palabras de 12 caracteres. Su peso superaba las
13 toneladas.
10
En 1952 se concluyó la construcción del EDVAC, siglas inglesas
de significado Electronic Discrete Variable Automatic Computer
(computadora electrónica automática de variabe discreta).
Diseñada por Mauchly y Eckert, a quienes se unió el
matemático húngaro John
von Neumann (1903-1957),
esta computadora contaba
por
primera
vez
con
capacidad
de
almacenamiento de memoria para los
programas, lo que evitaba el tedioso trabajo de
reconexión que era necesario en la máquina
ENIAC. La memoria consistía en líneas de
mercurio dentro de un tubo de vidrio al vacío,
donde un impulso electrónico podía ir y venir
en 2 posiciones, para almacenar los ceros y
unos, empleabando así números binarios.
Constaba de 4.000 válvulas y 10.000 diodos de cristal, con una autonomía de
hasta 8 horas sin errores. Disponía de un lector-grabador de cinta magnética.
5. Segunda generación: circuitos transistorizados (1957-1964).
El transistor (palabra surgida por la contracción de Transfer
Resistor), elemento de silicio o germanio inventado por los
Laboratorios Bell Telephone en 1947, acabó sustituyendo a los
tubos de vacío (o válvulas), debido a la gran diferencia de sus
prestaciones: tamaño minúsculo, menor coste y menor consumo
eléctrico, generando así también menos calor. La vida útil del
transistor no tiene comparación tampoco,
ya que es prácticamente ilimitada,
mientras que las válvulas debían ser
reemplazadas con mucha frecuencia. Las primeras
computadoras construidas completamente a base de
transistores fueron introducidas por las compañías NCR
(NCR 304, en 1957) y RCA (RCA 501, en 1958). Sin
embargo, IBM creó los modelos más populares, logrando
una cuota de mercado del 70% en la década de los 60. El primer modelo de IBM
que empleaba transistores fue el IBM 7090, creado a finales de 1958.
11
Durante el período que engloba la segunda generación tiene
lugar también la ampliación de las memorias internas, la
generalización del concepto de arquitectura modificable y el uso
de periféricos de gran masa de memoria como los tambores y
discos magnéticos. Aparecen los lenguajes ensambladores que
traducen las instrucciones del código máquina, llegando a
generar ya lenguajes de alto nivel como:
FORTRAN, contracción de las palabras inglesas Formula
Translator (traductor de fórmulas), lenguaje empleado sobre todo
en aplicaciones científicas, fue desarrollado entre 1954 y 1957 por la compañía
IBM.
LISP, acrónimo de LISt Processing (procesamiento de listas), creado en 1958 por
John McCarthy en el Instituto Tecnológico de Massachusetts (MIT). McCarthy
introdujo en 1956, en una conferencia en Dartmouth, el concepto de Inteligencia
Arificial.
COBOL, acrónimo de COmmon Business Oriented Language (lenguaje común
orientado a negocios), orientado hacia la informática de gestión empresarial y que
se desarrolló con la intención de lograr un lenguaje estándar, debido a las
múltiples incompatibilidades de los equipos de la época.
ALGOL, que proviene del inglés Algorithmic Language (lenguaje algorítmico). Su
uso era bastante extendido en las universidades pero no tuvo aceptación como
lenguaje de utilización comercial.
En 1963 el Comité Estadounidense de
Estándares (ASA, que en 1969 tomaría el
nombre de Instituo Estadounidense de
Estándares Nacionales, o ANSI) aprueba el
código ASCII, acrónimo inglés de American
Standard Code for Information Interchange
(código
estándar
americano
para
el
intercambio de información), basado en el uso
anglosajón del alfabeto latino. Su origen se
encuentra en los conjuntos de códigos usados
hasta entonces en telegrafía. En 1967 se
incluyeron las minúsculas, y se redefinieron
algunos códigos de control para formar el
código conocido como US-ASCII.
6. Tercera generación: el circuito integrado (1964-1974).
12
En 1959, el ingeniero eléctrico estadounidense Jack St. Claire
Kilby (1903-2005) inventó el circuito integrado monolítico cuando
trabajaba para la empresa Texas Instruments, logro que sentó
los cimientos conceptuales y técnicos para todo el campo de la
microelectrónica y que en los años
80 llevaría al desarrollo de los
microprocesadores.
El
invento
original de Kilby era un dispositivo
creado con un monocristal de
germanio
que
integraba
seis
transistores en una misma base semiconductora para
formar un oscilador de rotación de fase. Esto permitió
por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento
reduciendo el tamaño físico de las máquinas. Por su contribución al desarrollo de
la tecnología de la información, en el año 2000 Kilby fue galardonado con el
Premio Nobel de Física.
Se considera como inicio de la tercera
generación el año 1964, cuando el 7 de
abril se presenta el IBM S/360, construido
con un circuito integrado de pequeña
escala, con la posibilidad de elegir entre
seis modelos (30, 40, 50, 60, 62 y 70) de
diferentes prestaciones con compatibilidad
de software y periféricos. Tenía la
capacidad de realizar tanto análisis
numéricos
como
administración
y
procesamiento de archivos y contaba con
unidades de cinta magnética de nueve
canales, paquetes de discos magnéticos y
otras características que ahora son
estándares. La serie 360 fue la primera también en utilizar un Sistema Operativo,
el OS/360, en diferentes versiones según el modelo, dotando así a la máquina de
capacidad de multiprogramación, al permitir ejecutar más de un programa
simultáneamente.
Durante el período que representa la tercera generación se estandarizaron los
lenguajes de programación más utilizados como el FORTRAN (1966), el ALGOL
(1968) y el COBOL (1970). También aparecieron lenguajes nuevos, como el
BASIC (1964) o el PASCAL (1970).
13
A finales de la década de los sesenta comienzan a aparecer
ordenadores de tamaño mediano, menor coste y mayor facilidad
de manejo, las entonces llamadas minicomputadoras, con
circuitos de mediana escala (MSI), destinadas a abastecer la
demanda de medianas y grandes empresas. Se distribuían en
varias terminales organizadas en redes. La ya desaparecida
empresa DEC (Digital Equipment Corporation) dominaba el
mercado de estas máquinas con sus series PDP-8 y PDP-11.
El 21 de noviembre de 1969 se realiza la primera interconexión de computadoras
a través de una red, entre la Universidad de California y el Instituto de
Investigaciones de Stanford. Fue un proyecto llamado ARPANET (Advanced
Research Projects Agency Network), desarrollado por la DARPA (Agencia de
Investigación de Proyectos Avanzados de Defensa). El 5 de diciembre de ese
mismo año lograron interconectar cuatro nodos: el Instituto de Investigaciones de
Stanford, la Universidad de California de Los Ángeles, la Universidad de California
Santa Bárbara y la Universidad de Utah.
1969 es la fecha también del desarrollo final del sistema operativo UNIX, cuyas
siglas provienen de UNiplexed Information and Computing System, ejecutado por
primera vez en 1970 en una máquina PDP 11/20. El proyecto estaba liderado por
el científico Kenneth Lane Thompson y el físico Dennis MacAlistair Ritchie, quien
escribiría en 1972 el lenguaje de programación C para el sistema, lo que le daría
portabilidad para ser instalado en diferentes ordenadores, con unos pequeños
cambios.
En 1973, el presidente de Intel, Gordon Moore, postula la famosa ley de Moore
que predecía que el número de transistores en las CPU se duplicarían cada 18
meses, lo que se fue cumpliendo durante más de 20 años.
7. Cuarta generación: el microprocesador (1974-...)
La cuarta generación de ordenadores se
considera iniciada con la aparición del
microprocesador, invento que permitiría luego
la creación del ordenador personal (PC). En
1974, la empresa estadounidense Intel
Corporation
presentó
el
modelo
de
microprocesador 8080. Contenía 4.500
transistores y podía manejar 64k de memoria
RAM a través de un bus de datos de 8 bits. El
14
8080 fue el cerebro del primer ordenador personal (PC), el Altair 8800, fabricado
por la compañía MITS (Micro Instrumentation Telemetry Systems), promoviendo
un gran interés en hogares y pequeños negocios a partir de enero de 1975,
cuando apareció publicitada en la revista Popular Electronics y se vendía como un
kit. El primer modelo no contaba con monitor ni
teclado, tan sólo con luces LED y pequeñas
palancas o switches para facilitar la
programación. La información era almacenada
en cassettes de grabadoras y era visualizada
en aparatos de televisión. El primer lenguaje
de programación para la máquina fue el Altair
BASIC, escrito por William Henry Gates y Paul
Allen, quienes inmediatamente después
fundarían Microsoft. El Sistema Operativo que
utilizaba el Altair 8800 era el CP/M (Control Program for Microcomputers), escrito
por Gary Kildall.
En 1976, los amigos y aficionados a la electrónica Steve
Wozniak (entonces ingeniero en Hewlett-Packard) y Steve
Jobs (que trabajaba en Atari) fabrican en el garaje de su
casa la microcomputadora Apple I. Steven Jobs convenció
a Wozniak (que se encargó de la construcción) para
continuar la fabricación para la venta al público y, así, en
abril de 1976 nació la empresa Apple Computers. El Apple
I se construía manualmente, y no llegó a ser vendido
masivamente, pero con el desarrollo a partir de 1977 del Apple II, la compañía de
Wozniak y Jobs llegó a tener una alta cuota de mercado, solamente superada por
IBM.
En 1978 aparece la primera aplicación para procesar textos (WordStar), diseñada
para el sistema operativo CP/M, poco después estaría disponible también para el
DOS, y sería el precursor de WordPerfect. Un año después, en 1979, vio la luz
VisiCalc, la primera hoja de cálculo, desarrollada por Dan Bricklin para el Apple II.
15
En 1980 Tim Paterson, programador de SCP (Seattle Computer
Products), desarrolló un sistema operativo conocido como 86DOS (Disk Operating System, sistema operativo de disco). En un
principio se le llamó QDOS (Quick and Dirty Operating System,
sistema operativo rápido y sucio), se basaba en el CP/M para un
procesador Intel 8086. Acabaría siendo comprado por 50.000
dólares
por
Microsoft,
empresa
encargada por IBM para la creación de
un sistema operativo para su novedoso
modelo IBM PC, proyecto que Microsoft no fue capaz de
cumplir, por lo que reescribió para tal fin el QDOS,
convirtiéndose así en el PC-DOS para los modelos de IBM
y MS-DOS para otras marcas a las que suministraría
Microsoft el producto. En 1984 eran ya 200 las marcas
que habían adquirido una licencia de MS-DOS, lo que supondría el principio del
casi-monopolio de Microsoft. IBM, por su parte, acrecentó su liderazgo en el
mercado con su PC (Personal Computer, ordenador personal), vendiendo más de
65.000 unidades el primer año y acercando la figura del ordenador a la sociedad y
a los hogares con los modelos sucesivos.
La privatización masiva que estaba sufriendo el software en la
época llevó a Richard Matthew Stallman a
desarrollar, a partir de 1983, un proyecto de
creación y difusión de software libre,
denominado GNU (acrónimo de GNU is Not
UNIX, GNU no es UNIX). Su finalidad era el
desarrollo de un sistema operativo totalmente
libre. En 1985 promovería el nacimiento de la
FSF (Free Software Foundation, fundación
para el software libre).
En noviembre de 1985 aparece la primera versión del sistema operativo Windows
(1.0), que posibilitaba el uso de una interfaz gráfica para los PC's de IBM, que
desde hacía un año ya ofrecían los modelos Macintosh (Mac) de Apple. El precio
de Windows 1.0 era de 100 dólares de la época. Microsoft siguió lanzando al
mercado sucesivas versiones del sistema operativo, como Windows NT (1992),
Windows 95 (1995), Windows 98 (1998), Windows 2000 (2000), Windows XP
(2001) y Windows Vista (2007). Actualmente se estima que alrededor del 95% de
los ordenadores usan alguno de estos sistemas operativos.
16
1992 fue el año de dos grandes eventos. El desarrollo, por
parte del ingeniero informático finlandés Linus Benedict
Torvalds del sistema operativo Linux, cuyo código fuente es de
libre acceso, supuso un hito para el movimiento del software
libre, y el sistema sigue en uso actualmente gracias, sobre
todo, a las constantes mejoras y
cambios del código por parte de los
programadores de todo el mundo,
surgiendo
así
también
diversas
versiones. El otro hecho digno de mención de ese año fue la
presentación pública del sistema global de hipertextos
iniciado por el físico inglés Timothy John Berners-Lee
mientras trabajaba en proyectos de investigación en el
CERN de Ginebra (Conseil Européen pour la Recherche
Nucléaire, consejo europeo para la investigación nuclear), denominado world wide
web (www), desarrollándose así Internet tal y como lo conocemos hoy en día.
Surge así una nueva era de comunicación para la humanidad, que acabaría por
estar interconectada globalmente.
17
Cronología de los Orígenes de la Computación
3500 a.c.
1617
1621
1624
1639
1673
1800
1822
1830
Se inventa el ábaco (en Babilonia), primera "máquina"
para realizar cálculos.
Ábaco chino
John Napier inventa sus varillas de numeración (o
huesos de Napier).
Invención de la regla de cálculo.
Regla de cálculo
Wilhelm Schickard construye la primera calculadora
mecánica.
Blaise Pascal inventa y fabrica una sumadora
mecánica llamada la Pascalina.
Gottfried Wilhelm Leibniz diseña y construye una
máquina mecánica para realizar cálculos aritméticos.
El sistema diseñado por Leibniz se usó en años
posteriores para fabricar calculadoras mecánicas.
Tarjetas perforadas de Jacquard.
Tarjeta perforada
Charles Babbage presenta su proyecto de la máquina
en diferencias, para evaluar polinomios.
Babbage presenta las bases de la informática en su
18
1854
1885
1894
1924
1930
1937
proyecto de la máquina analítica, que nunca se llegó a
construir.
George Boole desarrolla el álgebra que lleva su
nombre: álgebra booleana.
Herman Hollerith construye la máquina censadora o
tabuladora, que por medio de tarjetas perforadas
reducía el tiempo al realizar el censo.
Máquina censadora
Leonardo Torres Quevedo presenta su máquina
algebraica.
T. J. Watson renombra el empresa CTR, por
International Business Machines (IBM)
Logo de IBM en 1924
Vannevar Bush diseña una máquina analógica que
resolvía ecuaciones diferenciales: el Analizador
Diferencial.
Inicio de la teoría de la computabilidad con la
descripción de la máquina de Turing.
19
Primera Generación
1938
1939
1939
1940
1941
1942
1943
1943
1944
1944
1945
1946
1947
1948
1948
1949
1950
Konrad Zuse construye la primera de sus
computadoras: la Z1.
George R. Stibitz empieza el desarrollo de la Complex
Calculator.
Nace la Z2 de Zuse.
Tesis de Claude Shannon sobre teoría matemática de
la comunicación.
Primera computadora funcional del mundo controlada
por programas, la Z3 de Zuse.
Atanasoff desarrolla el ABC, máquina electrónica
digital para la resolución de sistemas lineales.
Un equipo dirigido por Alan Turing construye el
Colossus para descifrar los mensajes de Enigma.
Se empieza la construcción del ENIAC, por John W.
Mauchly y John Eckert.
Howard Hathaway Aiken termina la construcción de la
Harvard Mark I.
Zuse termina de construir la Z4.
Primer "bug" informático.
Primer "bug"
Nace una de las primeras computadoras no diseñadas
con un propósito militar: la UNIVAC.
Nace la cibernética, vocablo designado por Norbert
Wiener, uno de sus padres.
Nace el proyecto de la Manchester Mark I en donde
Alan Turing partició activamente.
Los laboratorios Bell crean el MODEM.
La compañía de Mauchly y Eckert construye una
"pequeña" computadora: la BINAC.
Alan Turing publica su artículo "Computing Machinery
and Inteligence".
20
Segunda Generación
1952
1952
1952
1956
1960
John von Neumann hace realidad su sueño: se pone
en marcha el EDVAC.
Shannon desarrolla un ratón eléctrico capaz de salir
de un laberinto. Primera red neuronal.
Empieza la fabricación industrial y comercialización de
ordenadores.
Conferencia de Darthmouth, en donde nace la
inteligencia artificial.
Nace el primer lenguaje de programación de
inteligencia artificial: el LISP.
Tercera Generación
1964
1968
1969
1971
1972
1972
IBM empieza a comercializar los 360.
Robert Noyce y Gordon Moore fundan Intel
Corporation.
Kenneth Thompson y Dennis Ritchie crean el sistema
operativo Unix, en los laboratorios AT&T .
IBM crea el disquete de 8 pulgadas.
Aparecen los disquetes de 5.25 pulgadas.
Seymour Cray considera que el software pordría ser
más potente en ordenadores monoprocesadores por
medio de el procesamiento en paralelo. Nace así el
CRAY 1.
Cuarta Generación
1975
1975
1976
1977
Se comercializan el Altair 8800, considerado el primer
ordenador personal.
Bill Gates y Paul Allen fundan Microsoft.
Steve Jobs y Steve Wozniac fundan la Apple
Computer, Inc.
Se presenta la Apple II, el segundo ordenador
personal de la historia.
21
Quinta Generación
1981
1981
1984
Se comercializa el IBM PC.
Microsoft presenta el sistema operativo MS-DOS
(Microsoft Disk Operating System).
Sony crea disquetes de 3.5 pulgadas.
Aparece el primer clónico del IBM PC.
Feynmann propone la mecánica cuántica como
herramienta de computación.
Primer ordenador personal con interfaz gráfico, el Lisa
de Apple.
Sony y Philips crean CD-Rom para los ordenadores.
1985
CD-Rom para PC
Microsoft anuncia Windows 1.0.
1981
1982
1982
1983
1988
1989
1994
1995
Windows
W. H. Sim funda Creative Labs.
Creative Labs presenta la tarjeta de sonido Sound
Blaster.
Shor describe un algoritmo cuántico que permitiría
factorizar enteros en tiempo polinomial.
Se supera el teraflop en computación en paralelo.
22
Introducción
A través de una pequeña investigación conocer el significado de la palabra
informática la cual no es lo mismo que computación, además de conocer las seis
generaciones de las computadoras, sus precursores, desde el hombre primitivo
hasta nuestros días.
Como sabemos la informática es un tratamiento con pasos a seguir por a través
de un proceso de información para tener conocimiento automático. Y la
computación es aquello que ayuda a la informática a obtener información más
rápido a través de la computadora.
Por ello sabemos que la informática se refiere a los conocimientos científicos
estudiando la comunicación, mientras la computación estudia la historia, así como
los avances de la computadora.
Sobre las computadoras sacamos podemos decir que ha tenido muchos avances,
desde la época de los 40 han cambiado mucho dándole un gran giro a nuestra
vida ya que en esa época eran lentas, de gran tamaño y tenían el problema del
sobre calentamiento hoy en día ya no los tenemos, pues cada día que pasa son
mas pequeñas, las cuales las vuelve más rápidas y portátiles.
Hoy podemos decir que las computadoras son un instrumento de trabajo
necesario para casi cualquier actividad en nuestra vida cotidiana, pues gracias a la
informática, las computadoras e Internet podemos estar en constante
comunicación con personas de todo el mundo, y que cada día que pasa habrán
nuevas cosas y nuevas generaciones de computadoras.
ANTECEDENTES HISTÓRICOS DE LA INFORMÁTICA
DEFINICIÓN DE INFORMÁTICA
A la ciencia que estudia los sistemas inteligentes se información se le denomina
informática. En otras palabras, la informática es la ciencia enfocada al estudio de
las necesidades de información, de los mecanismos y sistemas requeridos para
producirla y aplicarla, de la existencia de insumos y de la integración coherente de
los diversos elementos informativos que se necesitan para comprender una
situación.
La definición del IBI (Oficina Intergubernamental para la Informática) es: "La
aplicación racional y sistemática de la información en los problemas económicos,
sociales y políticos"; también señala que la informática es la "ciencia de la política
de la información".
23
PRECURSORES DEL COMPUTADOR
Carles Babbage es considerado como el padre de la informática.
DESARROLLO DEL COMPUTADOR
*Charles Babbage
GENERACIONES Y TECNOLOGÍAS
El avance de la tecnología de las computadoras, a partir de los primeros años del
siglo XX ha sido sorprendente. El descubrimiento de los nuevos dispositivos
electrónicos, los grandes avances de la programación y el acelerado desarrollo de
los nuevos sistemas operativos, han marcado fechas que permiten clasificar a las
computadoras de acuerdo a sus componentes y a su capacidad de
procesamiento, agrupándolas por generaciones.
Hay quienes ubican a la primera a partir de 1937, otros desde 1951 que fue
cuando apareció la primera computadora comercial la UNIVAC (Universal
Automatic Computer), pero no es conveniente tomar partido por alguna de estas
teorías, sino considerar a las fechas en que se dieron los grandes cambios, como
parámetros para determinar el fin de una etapa y el comienzo de otra.
Primera generación
Las computadoras de esta generación se caracterizaron por estar constituidas de
relevadores (relés) electromecánicos como la MARK I, o de tubos de vacío como
la ENIAC. Eran de un tamaño tan grande que ocupaban espaciosos salones en las
universidades donde fueron desarrolladas.
Su capacidad de almacenamiento en la memoria era muy reducida, como en el
caso de la ENIAC que almacenaba 1kB. La cantidad de condensadores,
resistencias y válvulas de vació propiciaba un consumo excesivo de energía
eléctrica, por lo que se calentaban demasiado. Esto obligó a incluir en las salas de
computación costosos sistemas de enfriamiento; para la entrada de datos era por
medio de tarjetas perforadas y la programación solamente se desarrollaba en
lenguaje de máquina o binario, los trabajos para construir estas primeras
computadoras comenzaron con la máquina analítica de Babbage.
La fecha final de esta etapa es en la década de los cincuenta, ya que en 1947 se
descubre el primer transistor (Transfer Resistance), elemento que dio origen a las
primeras computadoras de la segunda generación.
24
Segunda generación
En la segunda generación de computadoras la característica principal en cuanto a
los equipos (hardware) es la inclusión de transistores. Respecto a la programación
o software, siguen dominando los sistemas de tarjeta o cinta perforada para la
entrada de datos. Los laboratorios Bell logran avances muy significativos como la
construcción en 1954, de la primera computadora transistorizada, la TRADIC
(Transistorized Airborne Digital Computer).
Otro gran logro de esta época es el desarrollo del primer lenguaje de alto nivel, el
FORTRAN (FORmula TRANslator), el cual es muy apropiado para trabajos
científicos, matemáticos y de ingeniería. Un año después, John McCarthy
desarrolla el lenguaje LISP (acrónimo de LISt Processor), que aporta grandes
avances en la investigación sobre Inteligencia Artificial por la facilidad con que
permite el manejo de símnbolos y listas.
Uno más de los asombrosos descubrimientos en el ámbito del software entre 1959
y 1960 es el lenguaje de programación COBOL (COmmon Business Oriented
Language).
La inclusión de memorias de ferrita en estas computadoras hizo posible que se
redujeran de tamaño considerablemente, reduciendo también su consumo de
energía eléctrica. Esto significó una notable baja de la temperatura y, aunque
necesitaban todavía sistemas de enfriamiento, podían estar más tiempo operando
sin presentar problemas. En esta generación se construyen las
supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
Tercera generación
Lo siguiente fue la integración a gran escala de transistores en microcircuitos
llamados procesadores o circuitos integrados monolíticos LSI (Large Scale
Integration), así como la proliferación de lenguajes de alto nivel y la introducción
de sistemas operativos (comunicación entre el usuario y la computadora).
El descubrimiento en 1958 del primer Circuito Integrado (chip) por el ingeniero
Jack S. Kilby, así como los trabajos del DR. Robert Noyce de Fairchild
Semiconductors, acerca de los circuitos integrados, dieron origen a la tercera
generación.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la
impresionante IBM 360, con su tecnología SLT (Solid Logic Technology).
También en ese año, Control Data Corporation presenta la supercomputadora CD
6600, que se consideró como la más poderosa de las computadoras de la época,
ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por
segundo.
25
Se empieza a utilizar los medios magnéticos de almacenamiento, como cintas
magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía
usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas
ya alcanzan velocidades respetables.
Cuarta generación
Una fecha en la cual de manera inobjetable todos están de acuerdo, e el final de la
tercera generación marcado claramente por la aparición del primer
microprocesador. En 1971, Intel Corporation, que era una pequeña compañía
fabricante de semiconductores ubicada en Silicon Valley, presenta el primer
microprocesador o Chip de 4 bit, que en un espacio de aproximadamente 4 x 5
mm contenía 2250 transistores. Este primer microprocesador fue bautizado como
el 4004.
Esta generación se caracterizó por grandes avances tecnológicos realizados en un
tiempo uy corto. En 1977 aparecen las primeras microcomputadoras, entre las
cuales, las mas famosas fueron las fabricadas por Apple Computer, Radio Shack y
Commodore Business Machines. IBM se integra al mercado de las
microcomputadoras con su Personal Computer; se incluyo un sistema operativo
estandarizado, el MS-DOS (MicroSoft Disk Operating System).
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la
posibilidad de generar gráficosa grandes velocidades, lo cual permite utilizar las
interfaces gráficas de usuario, que son pantallas con ventanas, iconos y menús
desplegables que facilitan las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del sistema operativo para
realizar operaciones de copiado o formato con una simple pulsación de cualquier
botón del ratón (mouse) sobre uno de los iconos o menús.
Quinta generación
Hay quienes consideran que la cuarta y quinta generaciones han terminado , y las
ubican entre los años 1971-1984 la cuarta y entre 1984-1990 la quinta. Ellos
consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Hay que mencionar dos grandes avances tecnológicos que quizás sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy
Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda
en 1976 la Cray Research Inc; y el anuncio por parte del gobierno japonés del
proyecto "quinta generación", que según se estableció en el acuerdo con seis de
las más grandes empresas japonesas de computación, debería terminar en 1992.
Según este proyecto, la característica principal sería la aplicación de la inteligencia
artificial. Las computadoras de esta generación contiene una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes.
26
El almacenamiento de información de información se realiza en dispositivos
magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD
(Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento
de vídeo y sonido.
Los componentes de los microprocesadores actuales utilizan tecnologías de alta y
ultra integración, denominadas VLSI (Very Large Scale Integration) y ULSI (Ultra
Large Scale Integration). El único proceso que se venido realizando sin
interrupciones en el transcurso de esta generación, es la conectividad entre
computadoras, que a partir de 1994, con el advenimiento de la red Internet y del
World Wide Web, ha adquirido una importancia vital en las grandes, medianas y
pequeñas empresas y, entre los usuarios particulares de computadoras.
Sexta generación
Supuestamente la sexta generación de computadoras está en marcha desde
principios de los años noventa. Esta generación cuenta con arquitecturas
combinadas Paralelo/Vectorial, con ciento s de microprocesadores vectoriales
trabajando al mismo tiempo; se han creado computadoras capaces de realizar
más de un millón de millones de operaciones aritméticas de punto flotante por
segundo (teraflops); las redes de área mundial (Wide Area Network, WAN)
seguirán creciendo desorbitadamente utilizando medios de comunicación a través
de fibras ópticas y satélites, con anchos de banda impresionantes.
27
HISTORIA CRONOLÓGICA DE LAS COMPUTADORAS
Por toda la historia, el desarrollo de máquinas matemáticas ha ido de mano en
mano con el desarrollo de computadoras. Cada avance en uno es seguido
inmediatamente por un avance en el otro. Cuando la humanidad desarrolló el
concepto del sistema de conteo en base diez, el ábaco fue una herramienta para
hacerlo más fácil. Cuando las computadoras electrónicas fueron construidas para
resolver ecuaciones complejas, campos como la dinámica de fluidos, teoría de los
números, y la física química floreció.
500 a.C. - 1822 d.C.
Esta sección comienza desde la aparición del ábaco en China y Egipto, alrededor
de 500 años a.C. hasta la invención del Motor Diferencial por Charles Babbage, en
1822. El descubrimiento de los sistemas por Charles Napier, condujo a los
avances en calculadoras. Por convertir multiplicación y división en suma y resta,
un número de máquinas (incluyendo la regla deslizante) puede realizar estas
operaciones. Babbage sobrepasó los límites de la ingeniería cuando inventó su
motor, basado en este principio.
En esta etapa se inventaron las siguientes:
El ábaco
El ábaco fue la primera máquina conocida que ayudaba a ejecuta computaciones
matemáticas. Se piensa que se originó entre 600 y 500 a.C., o en China o Egipto.
Pelotas redondas, usualmente de madera, se resbalaban de un lado a otro en
varas puestas o alambres, ejecutaban suma y substracción. Como una indicación
de su potencial, se usa el ábaco todavía en muchas culturas orientales hoy en día.
Napier Bones
Justo antes de morir en 1617, el matemático escocés John Napier (mejor conocido
por su invención de logaritmos) desarrolló un juego de palitos para calcular a las
que llamó "Napier Bones." Así llamados porque se tallaron las ramitas de hueso o
marfil, los "bones" incorporaron el sistema logarítmico. Los Huesos de Napier
tuvieron una influencia fuerte en el desarrollo de la regla deslizante (cinco años
más tarde) y máquinas calculadoras subsecuentes que contaron con logaritmos.
Regla deslizante
28
En 1621 la primera regla deslizante fue inventada por el del matemático inglés
William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un
juego de discos rotatorios que se calibraron con los logaritmos de Napier. Uno de
los primeros aparatos de la informática analógica, la regla deslizante se usó
normalmente (en un orden lineal) hasta que a comienzos de 1970, cuando
calculadoras portátiles comenzaron a ser más popular.
Calculadora mecánica
En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en
Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de
Napier, hacia rodar cilindros en un albergue grande. Se comisionó un Reloj
Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por
fuego antes de que se terminara.
Pascalina
En 1642 la primera calculadora automática mecánica fue inventada por el
matemático francés y filósofo Blaise Pascal. Llamado la "Pascalina", el aparato
podía multiplicar y substraer, utilizando un sistema de cambios para pasar dígitos.
Se desarrolló la máquina originalmente para simplificar al padre de Pascal para la
recolección del impuesto. Aunque la Pascalina nunca fue un éxito comercial como
Pascal había esperado, el principio de los cambios era fue útil en generaciones
subsecuentes de calculadoras mecánicas.
La máquina de multiplicar
En 1666 la primera máquina de multiplicar se inventó por Sir Samuel Morland,
entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato
constó de una serie de ruedas, cada representaba, dieses, cientos, etc. Un alfiler
del acero movía los diales para ejecutar las calculaciones. A diferencia de la
Pascalina, el aparato no tenía avanzó automático de en columnas.
Máquina calculadora
29
La primera calculadora de propósito general fue inventada por el matemático
alemán Gottfried von Leibniz en 1673. El aparato era una partida de la Pascalina,
mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie
de engranaje. Aunque el aparato podía ejecutar multiplicación y división, padeció
de problemas de fiabilidad que disminuyeron su utilidad.
El jugador de ajedrez automático
En 1769 el Jugador de Ajedrez Autómata fue inventado por Barón Empellen, un
noble húngaro. El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel,
un inventor de instrumentos musicales, quien recorrió Europa y los Estados
Unidos con el aparato, a finales de 1700 y temprano 1800. Pretendió ser una
máquina pura, el Autómata incluía un jugador de ajedrez "robótico". El Automatón
era una sensación dondequiera que iba, pero muchas comentaristas, incluso el
Edgar Allen Poe famoso, ha escrito críticas detalladas diciendo que ese era una
"máquina pura." En cambio, generalmente, siempre se creyó que el aparato fue
operado por un humano oculto en el armario debajo del tablero de ajedrez. El
Autómata se destruyó en un incendio en 1856.
La máquina lógica
Se inventó la primera máquina lógica en 1777 por Charles Mahon, el Conde de
Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía
silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el
precursor de los componentes lógicos en computadoras modernas.
Jacquard Loom
El "Jacquard Loom" se inventó en 1804 por Joseph-Marie Jacquard. Inspirado por
instrumentos musicales que se programaban usando papel agujereados, la
máquina se parecía a una atadura del telar que podría controlar automáticamente
de dibujos usando una línea tarjetas agujereadas. La idea de Jacquard, que
30
revolucionó el hilar de seda, estaba formar la base de muchos aparatos de la
informática e idiomas de la programación.
Calculadoras de producción masiva
La primera calculadora de producción masiva se distribuyó, empezando en 1820,
por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro
Parisienses, el "aritmómetro" de Colmar operaba usando una variación de la rueda
de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una
medalla a la Exhibición Internacional en Londres en 1862.
Artefacto de la diferencia
En 1822 Charles Babbage completó su "Artefacto de la Diferencia," una máquina
que se puede usar para ejecutar calculaciones de tablas simples. El Artefacto de
la Diferencia era una asamblea compleja de ruedas, engranajes, y remaches. Fue
la fundación para Babbage diseñar su "Artefacto Analítico," un aparato del
propósito genera que era capaz de ejecutar cualquiera tipo de calculación
matemática. Los diseños del artefacto analítico eran la primera conceptualización
clara de una máquina que podría ejecutar el tipo de computaciones que ahora se
consideran al corazón de informática. Babbage nunca construyó su artefacto
analítico, pero su plan influyó en toda computadora moderna digital que estaba a
seguir. Se construyó el artefacto analítico finalmente por un equipo de ingenieros
en 1989, cien años después de la muerte de Babbage en 1871. Por su
discernimiento Babbage hoy se sabe como el "Padre de Computadoras
Modernas".
1823 - 1936
Durante este tiempo, muchas de las culturas del mundo fueron avanzando desde
sociedades basadas en la agricultura a sociedades basadas industrialmente. Con
estos cambios vinieron los avances matemáticos y en ingeniería los cuales
hicieron posible máquinas electrónicas que pueden resolver argumentos lógicos
complejos. Comenzando con la publicación de Boolean Algebra de George Boole
y terminando con la fabricación del modelo de la Máquina de Turín para máquinas
lógicas, este período fue muy próspero para computadoras.
En esta etapa se inventaron las siguientes:
31
Algebra de Boole
En 1854 el desarrollo del Algebra de Boolean fue publicado por el lógico Inglés
George S. Boole. El sistema de Boole redujo argumentos lógicos a permutaciones
de tres operadores básicos algebraicos: "y", "o", y "'no". A causa del desarrollo de
el Algebra de Boolean, Boole es considerado por muchos ser el padre de teoría de
la información.
Máquina lógica de Boolean
En 1869 la primera máquina de la lógica a usar el Algebra de Boolean para
resolver problemas más rápido que humanos, fue inventada por William Stanley
Jevons. La máquina, llamada el Piano Lógico, usó un alfabeto de cuatro términos
lógicos para resolver silogismos complicados.
Calculadora guiada por teclas
En 1885 la primera calculadora guiada por teclas exitosas, se inventó por Dorr
Eugene Felt. Para preservar la expansión del modelo del aparato, llamado el
"Comptómetro", Felt compró cajas de macarrones para albergar los aparatos.
Dentro de los próximos dos años Felt vendió ocho de ellos al New York Weather
Bureau y el U.S. Tresury. Se usó el aparato principalmente por contabilidad, pero
muchos de ellos fueron usados por la U.S. Navy en computaciones de ingeniería,
y era probablemente la máquina de contabilidad más popular en el mundo en esa
época.
Sistema de tarjetas agujeradas
En 1886 la primera máquina tabuladora en usar una tarjeta agujerada de entrada
del datos fue inventado por Dr. Herman Hollerith. Fue desarrollada por Hollerith
para usarla en clasificar en 1890 el censo en U.S., en que se clasificó una
población de 62,979,766. Su ponche dejó que un operador apuntara un indicador
en una matriz de agujeros, después de lo cual se picaría en una tarjeta pálida un
agujero al inverso de la máquina. Después del censo Hollerith fundó la Compañía
de las Máquinas de Tabulación, que, fusionando adquiere otras compañías, llegó
a ser qué es hoy Máquinas del Negocio Internacionales (IBM).
Máquina de multiplicar
En 1893 la primera máquina exitosa de multiplicación automática se desarrolló por
Otto Steiger. "El Millonario," como se le conocía, automatizó la invención de
Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha
32
para negocios, la ciencia halló inmediatamente un uso para el aparato y varios
miles de ellos se vendieron en los cuarenta años que siguió.
Tubo al vacío
En 1906 el primer tubo al vacío fue inventado por un inventor americano, Lee De
Forest. "El Audion", como se llamaba, tenía tres elementos dentro de una bombilla
del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de
radio recibidas de una antena. El tubo al vacío encontraría uso en varias
generaciones tempranas de computadoras, a comienzos de 1930.
Flip-flop
En 1919 el primero circuito multivibrador bistable (o flip-flop) fue desarrollado por
inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop dejó que un circuito
tuviera uno de dos estados estables, que estaban intercambiables. Formó la base
por el almacenamiento del bit binario estructura de computadoras de hoy.
Computadora analógica (para ecuaciones diferenciales)
En 1931 la primera computadora capaz de resolver ecuaciones diferenciales
analógicas fue desarrollada por el Dr. Vannevar Bush y su grupo de investigación
en MIT. "El Analizador Diferencial", como se llamaba, usaba engranajes
diferenciales que fueron hechos rodar por motores eléctricos. Se interpretaron
como cantidades los grados de rotación de los engranajes. Computaciones fueron
limitadas por la precisión de medida de los ángulos.
Programa mecánico
En 1933 el primer programa mecánico fue diseñado por Wallace J. Eckert. El
programa controló las funciones de dos de las máquinas en unísono y operadas
por un cable. Los trabajos de Eckert sembraron la fundación para las
investigaciones informático-científica de la Universidad de Colombia.
Máquina lógica
En 1936 el primer modelo general de máquinas de la lógica fue desarrollado por
Alan M. Turing. El papel, tituló "En Números calculables," se publicó en 1937 en la
Sociedad de Procedimientos Matemáticos de Londres y describió las limitaciones
de una computadora hipotética. Números calculables eran esos números que eran
números reales, capaz de ser calculados por medios del lo finito. Turing ofreció
prueba que mostró que al igual cuando usa un proceso finito y definido por
resolver un problema, problemas seguros todavía no se pueden resolver. La
noción de las limitaciones de tal problema tiene un impacto profundo en el
desarrollo futuro de ciencia de la computadora.
33
1937 - 1949
Durante la segunda guerra mundial, estudios en computadoras fueron de interés
nacional. Un ejemplo de ello es el "Coloso", la contra inglés a la máquina Nazi de
códigos, el "Enigma". Después de la guerra, el desarrollo empezó su nido, con
tecnología eléctrica permitiendo un avance rápido en computadoras.
En esta etapa se inventaron las siguientes:
Las funciones de cambio
En 1937 Claude F. Shannon dibujó el primer paralelo entre la Lógica de Boolean y
cambió circuitos en la tesis del patrón en MIT. Shannon siguió desarrollando sus
teorías acerca de la eficacia de la información comunicativa. En 1948 formalizó
estas ideas en su "teoría de la información," que cuenta pesadamente con la
Lógica de Boolean.
Electrónica digital
En 1939 la primera computadora electrónica digital se desarrolló en la Universidad
del Estado de Iowa por Dr. John V. Atanasoff y Clifford Baya. El prototipo, llamó el
Atanasoff Berry Computer (ABC), fue la primera máquina en hacer uso de tubos al
vacío como los circuitos de la lógica.
Computadora programable
En 1941 la primera controladora para computadora para propósito general usada
se construyó por Konrad Zuse y Helmut Schreyer. El "Z-3," como se llamó, usaba
retardos electromagnéticos y era programada usando películas agujereadas. Su
sucesor, el "Z-4," fue contrabandeado fuera de Berlín cuando Zuse escapo de los
Nazis en Marzo de 1945.
Electrónica ingles
34
En el diciembre de 1943 se desarrolló la primera calculadora inglesa electrónica
para criptoanálisis. "El Coloso," como se llamaba, se desarrolló como una
contraparte al Enigma, La máquina codificación de Alemania. Entre sus
diseñadores estaban Alan M. Turing, diseñador de la Máquina Turing, quien había
escapado de los Nazis unos años antes. El Coloso tenía cinco procesadores, cada
uno podría operar a 5,000 caracteres por segundo. Por usar registros especiales y
un reloj interior, los procesadores podrían operar en paralelo (simultáneamente)
que esta le daba al Coloso una rapidez promedio de 25,000 caracteres por
segundo. Esta rapidez alta era esencial en el esfuerzo del desciframiento de
códigos durante la guerra. El plan del Coloso era quedar como información secreta
hasta muchos años después de la guerra.
Mark I ASCC
En 1944, el primer programa controlador americano para computadora fue
desarrollado por Howard Hathaway Aiken. La "Calculadora Automática Controlada
por Secuencia (ASCC) Mark I," como se llamaba, fue un parche de los planes de
Charles Babbage por el artefacto analítico, de cien años antes. Cintas de papel
agujereados llevaban las instrucciones. El Mark que midió cincuenta pies de largo
y ocho pies de alto, con casi quinientas millas de instalación eléctrica, y se usó a la
Universidad de Harvard por 15 años.
El primer error de computadora (bug)
El 9 de septiembre de 1945, a las 3: 45 p.m., el primer caso real de un error que
causa un malfuncionamiento en la computadora fue documentado por los
diseñadores del Mark II. El Mark II, sucesor al ASCC Mark que se construyó en
1944, experimentó un falló. Cuando los investigadores abrieron caja, hallaron una
polilla. Se piensa ser el origen del uso del término "bug" que significa insecto o
polilla en inglés.
El ENIAC
En 1946 la primera computadora electrónica digital a grande escala llegó a ser
operacional. ENIAC (Integrado Electrónico Numérico y Calculadora) usó un
sistema de interruptores montados externamente y enchufes para programarlo. El
instrumento fue construido por J. Presper Eckert Hijo y John Mauchly. La patente
por el ENIAC no fue aceptada, de cualquier modo que, cuando se juzgó como se
derivó de una máquina del prototipo diseñado por el Dr. John Vincent Atanasoff,
quien también ayudó a crear la computadora Atanasoff-Berry. Se publicó trabajo
este año que detalla el concepto de un programa guardado. Se completa sucesor
a ENIAC, el EDVAC, en 1952.
El transistor
35
En 1947 se inventó la primera resistencia de traslado, (transistor) en Laboratorios
Bell por John Bardeen, Walter H. Brattain, y William Shockley. Los diseñadores
recibieron el Premio Nóbel en 1956 por su trabajo. El transistor es un componente
pequeño que deja la regulación del flujo eléctrico presente. El uso de transistores
como interruptores habilitaron computadoras llegar a ser mucho más pequeño y
subsiguientemente llevó al desarrollo de la tecnología de la "microelectrónica".
La computadora "Guarda Programas"
En 1948 la primera computadora de guardado de programa se desarrolló en la
Universidad Manchester por F.C. y Williams T. Kilburn. El "Manchester Marca I",
como se llamaba, se construyó para probar un tubo CRT de la memoria, inventada
por Williams. Como tal, era una computadora escala. Una computadora a gran
escala de guardado de programas se desarrolló un año más tarde (EDSAC) por un
equipo encabezado por Maurice V. Wilkes.
Memoria
En 1949 la primera memoria fue desarrollada por Jay Forrester. Empezando en
1953, la memoria, que constó de una reja de anillos magnéticos en alambre
interconectados, reemplazó los no confiables tubos al vacío como la forma
predominante de memoria por los próximos diez años.
1950 - 1962
Desde 1950 hasta 1962, un número de desarrollos avanzaron en tecnología de
computadoras. Una vez que la tecnología electrónica ha sido aplicada a máquinas
de computo, computadoras pudieron avanzar lejos de sus habilidades previas.
Guiadas por el modelo de Turín para máquinas lógicas, estudiosos de las
computadoras integraron lógica en sus máquinas. Programadores fueron capaces
de explotar estas utilidades mejor una vez que los primeros lenguajes de
programación, COBOL, fueron inventados.
En esta etapa se inventaron las siguientes:
Computadora Interactiva
36
En 1950 la primera computadora interactiva en tiempo real, fue completada por un
plan de diseño en MIT. La "Computadora del Torbellino," como se llamaba, fue
adoptada para proyectos en el desarrollo de un simulador de vuelo por la U.S.
Navy. El Torbellino usó un tubo de rayo de cátodo y una pistola de la luz para
proveer interactividad. El Torbellino se conectaba a una serie de radares y podría
identificar un avión poco amistoso e interceptores a su posición proyectada. Esta
sería el prototipo para una red de computadoras y sitios de radar (SAGE) como un
elemento importante de la defensa aérea de EUA por un cuarto-siglo después de
1958.
UNIVAC
En 1951 se entregó la primera computadora comercialmente disponible al
Escritorio del Censo por el Eckert Mauchly Corporación de la Computadora. El
UNIVAC (Computadora Universal Automática) fue la primera computadora que no
era un solo disponible para laboratorios. El UNIVAC llegó a ser una casera en
1952 cuando se televisó en un reportaje de noticias para proyectar el ganador del
Eisenhower-Stevenson raza presidencial con exactitud estupenda. Ese mismo año
Maurice V. Wilkes (diseñador de EDSAC) creó la fundación de los conceptos de
microprogramación, que sería el modelo de los diseñadores y constructores de la
computadora.
Circuito Integrado
En 1958 el primer circuito integrado se construyó por Jack S. Kilby. Se hizo el
circuito de varios elementos individuales de silicona congregados juntos. El
concepto proveyó la fundación para el circuito integrado, que dejó grandes
adelantos en la tecnología microelectrónica. También ese año, vino el desarrollo
de un idioma de programación, llamado LISP (Procesador de Lista), para permitir
la investigación en inteligencia artificial (IA).
COBOL
En 1960 el primer idioma de programación de alto nivel transportable entre
modelos diferentes de computadoras se desarrolló por un grupo en el
departamento de defensa patrocinada en la Universidad de Pennsylvania. El
idioma era COBOL (Idioma Común Orientada al Negocio), y uno de los miembros
del equipo de desarrollo era Grace Hopper (quien también escribió el primer
programa recopilador práctico). Se introdujo este año el primer láser también, por
Theodore H. Maiman en los Laboratorios Investigativos de Hughes. El láser
(amplificación ligera por estimuló emisión de radiación) podría emitir luz coherente
de un cristal de rubí sintético.
37
Cuaderno Gráfico
En 1962 los primeros programas gráficos que dejan que el usuario dibujara
interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT.
El programa, llamado "Sketchpad," usó una pistola de luz para la entrada de
gráficos en una pantalla CRT.
1963 - 1971
Una vez que la primera mini computadora fue construida en 1963, y luego la
primera triunfante en los negocios la supercomputadora en 1964, la revolución de
la computadora comenzó. Con la creación de cables de fibra óptica,
semiconductores, láseres y bases de datos relacionados, la barrera fue derribada
para los programadores. No sería hasta doce años después cuando la
computadora, llega a los hogares.
En esta etapa se inventaron las siguientes:
La minicomputadora
En 1963 el primer miniordenador comercialmente exitoso fue distribuido por
Corporación del Equipo digital (DEC). El DEC PDP-8 fue el sucesor al PDP-1, la
primera computadora demostró por el DEC viejo en 1959. El advenimiento de la
minicomputación comercial fue el de tener una influencia significante en el
desarrollo de secciones en la ciencia de la informática universitaria. La distribución
de la Computadora 12-bit PDP-8 abrió las compuertas del comercio de
miniordenador en otras computadoras.
Sistema IBM 360
En 1964 la familia de computadoras Sistema/ 360 fue lanzada por IBM. El
Sistema/ 260 reemplazó transistores con circuito integrado, o lógica sólida,
38
tecnología. Mas de treinta mil unidades se vendieron, y una era nueva en
tecnología de computadoras había empezado. Un mes después Sistema/ se
introdujo 360, se corrió el primer programa BASIC a la Universidad de Dartmouth
por su inventores, Tomás Kurtz y John Kemeny. BASIC sería el idioma
introductorio por una generación entera de usuarios de la computadora.
Supercomputadora
En 1964 la primera supercomputadora a estar comercialmente disponible se envió
por la Corporación de Datos de Mando. El CDC 6600 tenía varios datos devana
bancos y estaba a quedar en la computadora más poderosa por muchos años
después de su desarrollo.
El programa de ajedrez
En 1967 los primeros programas exitosos de ajedreces fueron desarrollados por
Richard Greenblatt en MIT. El programa, llamado MacHack, fue presentado en un
torneo de ajedrez a la categoría del novicio y ganó. El desarrollo futuro de
tecnología de la inteligencia artificial (IA) era contar pesadamente en tales
softwares de juego.
Minicomputadora de 16-bit
En 1969, la primera minicomputadora de 16-bit fue distribuida por Data General
Corporation. La computadora, llamada la Nova, fue un mejoramiento en velocidad
y poder sobre las minicomputadoras de 12-bit, PDP-8.
Fibra óptica
En 1970 el primer cable de fibra óptica fue comercialmente producido por Corning
Glass Works, Inc. El cables de fibra óptica de vidrio dejaron que más datos
transmitiera por ellos más rápido que por alambre o cable convencional. El mismo
año, circuitos ópticos fueron mejoraron más allá, por el desarrollo del primer láser
semiconductor.
Base de datos relacional
39
En 1970 el primer modelo de banco de datos relacional se publicó por E.F. Codd.
Un banco de datos relacional es un programa que organiza datos, graba y deja
que atributos similares de cada registro comparen. Un ejemplo es una colección
de registros personales, donde los últimos nombres o se listan sueldos de cada
persona. La publicación de Codd, tituló "Un modelo relacional de Datos para
banco de datos grandes compartidos", abrió un nuevo campo entero en desarrollo
de banco de datos.
Chip microprocesador
En 1971 el primer chip microprocesador fue introducido por Intel Corporación. El
chip 4004 era un procesador 4-bit con 2250 transistores, capaz de casi el mismo
poder como el 1946 ENIAC (que llenó un cuarto grande y tenía 18,000 tubos al
vacío). El chip 4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho.
Computadora personal
En 1971 se construyó y distribuyó la primera computadora personal por John
Blankenbaker. La computadora, llamada el Kenbak-1, tenía una capacidad de
memoria de 256 bytes, desplegaba datos como un juego de LED pestañeantes y
era tedioso programarlo. Aunque sólo 40 computadoras Kenbak-1 se vendieron (a
un precio de $750), introdujo la revolución de la computadora personal.
1972 - 1989
Una vez que la PC fue llegando a los hogares, la revolución de PC comienza. La
competencia de los mercados entre manufactureros como IBM y Apple Computer
avanzaron rápidamente en el campo. Por primera vez la habilidad de cálculos de
alta calidad, estaba en la casa de cientos miles de personas, en vez que solo
algunos privilegiados. Las computadoras finalmente se convirtieron en herramienta
de la gente común.
En esta etapa se inventaron las siguientes:
Altair
En el enero de 1975 Micro Instrumentation Telemetry Systems (MITS) introdujeron
el Altair. Una minicomputadora mas personal, el Altair era barato ($350) del
40
sistema que no tenía teclado, amonestador, o aparato del almacenamiento de la
memoria, pero llevó el microprocesador 8-bit Intel 8080. Cuando se actualizó la
computadora con 4 kilobyte de expansión de la memoria, Paul Allen y Bill Gates
(que más tarde fundaron Microsoft Corporation) desarrollaron una versión de
BASIC como un idioma de la programación por la computadora.
Computadoras personales
En 1977, la primera computadora personal ensamblada fue distribuida por
Commodore, Apple Computer, y Tandy. Dentro de unos años el PC (computadora
personal) había llegado a ser un pedazo de la vida personal de cada uno de sus
usuarios, y aparecería pronto en bibliotecas públicas, escuelas, y lugares de
negocio. Fue también durante este año que la primera área comercialmente
disponible Local Area Network (LAN) fue desarrollado por Datapoint Corporation,
llamada ARCnet.
Procesador RISC
En 1980 el primer prototipo de Computadora de Instrucción Reducida (RISC) fue
desarrollado por un grupo de investigación en IBM. El miniordenador 801 usó un
juego simple de instrucciones en idioma de la máquina, que se puede procesar un
programa muy rápido (usualmente dentro de un ciclo de la máquina). Varios
vendedores mayores ahora ofrecen computadoras RISC. Es pensado por muchos
que el RISC es el formato futuro de procesadores, debido a su rapidez y eficacia.
Microprocesador de 32-bit
En 1980 se desarrolló el primer microprocesador de 32-bit en un solo chip en
Laboratorios Bell. El chip, llamado el Bellmac-32, proporcionó un mejor poder
computacional sobre los procesadores anteriores de 16-bit.
IBM PC-XT
En 1981 la revolución de la computadora personal ganó impulso cuando IBM
introdujo su primera computadora personal. La fuerza de la reputación de IBM era
un factor importante en legitimar PC para uso general. La primera IBM PC, era un
sistema basado de un floppy el cual usó el microprocesador 8088 de Intel. Las
unidades originales tenían pantallas de sólo texto, gráficos verdaderos eran una
alternativa que llegó más tarde. Se limitó memoria también, típicamente sólo 128K,
o 256K de RAM. La máquina usó un sistema operativo conoce como DOS, un
41
sistema de la línea de comandos similar a los más antiguo sistemas CP/M. IBM
más tarde lanzó el IBM PC/ XT. Éste era una máquina extendida que añadió una
unidad de discos duros y gráficos CGA. Mientras la máquina llegó a ser popular,
varias otras compañías empezaron a lanzar imitaciones del IBM PC. Estos
temprano "clones" se distinguieron por incompatibilidades debido a su incapacidad
a reproducir debidamente el IBM BIOS. Se comercializaron éstos normalmente
como" 90% compatible." Se superaría Este problema pronto y la competición
serviría para empujar la tecnología y precios de la unidad abajo.
Procesamiento paralelo
En 1981 la primera computadora del proceso comercial paralela fue distribuida por
BBN Computers Advanced, Inc. La computadora, llamada la "Mariposa", era capaz
de asignarles a partes de un programa hasta 256 diferentes procesadores, en
consecuencia de esto la velocidad del proceso y eficacia incrementan.
Macintosh
En 1984 el primer Macintosh personal computer fue distribuido por Apple
Computer, Inc. El Macintosh, el cual tenía una capacidad de la memoria de
128KB, integró un monitor, y un ratón, fue la primera computadora en legitimar la
interfaz gráfica. La interfase de Mac era similar a un sistema explorado por Xerox
PARC. En lugar de usar una interfase de línea de comando que era la norma en
otras máquinas, el MacOS presentó a los usuarios con "iconos" gráficos, sobre las
ventanas gráficas, y menús deslizantes. El Macintosh era un riesgo significante
por Apple en que el nuevo sistema era incompatible con cualquiera otro tipo de
software, o su propia Apple ][, o el IBM PC línea. Se plagó la máquina más allá por
memoria limitada y la falta de una unidad de discos duros.. La máquina pronto
llegó a ser una norma por artistas gráficos y publicadores. Ésta dejó que la
máquina creciera en una plataforma más establecida.
IBM PC-AT
En 1984 IBM distribuido el IBM PC-AT, la primera computadora usaba el chip
microprocesador Intel 80286. La serie Intel 80x86 adelantó el poder del
procesador y flexibilidad de las computadoras IBM. IBM introdujo varios cambia en
esta línea nueva. Se introdujo ése un sistema de los gráficos nuevo, EGA, dejó
que 16 colores de gráficos a resoluciones más altas (CGA, el sistema más antiguo
42
que sólo tenía cuatro colores). La máquina también incorporó un bus de datos de
16-bit, y mejorado del el 8-bit bus de XT. Esto permitió la creación de tarjetas de
expansión más sofisticadas. Otro mejora incluyeron un teclado extendido, un
mejor suministro de energía y una caja del sistema más grande.
1990 - Presente
Por este tiempo, las computadoras han sido adaptadas a casi cada aspecto de la
vida moderna. Desde controlar motores de automóviles hasta comprar en los
supermercados. Cada vez máquinas más rápidas y nuevas, son creadas. Esto
hace que las casas de programas tomen ventaja de estas nuevas máquinas.
Aunque estas tecnologías son las últimas son las máquinas viejas del futuro.
En esta etapa se inventaron las siguientes:
Computadoras ópticas
En 1990 se construyó el primer procesador óptico en At&T Laboratorios de Bell. El
procesador emplea pequeños, láseres semi-conductores para llevar información y
guardar circuitos ópticos y procesan la información. Usar luz, en lugar de
electricidad, para llevar datos podía teóricamente hacer de las computadoras miles
de veces más rápido.
Interruptor de un solo átomo
En 1991 la primera demostración de un interruptor cuenta con se dio el
movimiento de un átomo se dio a conocer en IBM Almaden Research Center. Un
átomo Xenón se colocó en una superficie cristalina, el cual puede ser observado
por microscopio. Reemplazar interruptores electrónicos con interruptores atómicos
podía hacer tales interruptores un milésimo de su tamaño del presente.
Virus Miguel Ángel
Temprano en 1992 un virus fue descubierto, el cual estaba programado para
activarse el 6 de marzo, el cumpleaños de Miguel Ángel. Se esperó que el virus
extendido dañara o destruyera archivos de usuario en la unidad de disco duro.
Recibió cobertura de las noticias nunca visto, sobre la advertencia a las personas
de los pasos necesitaron proteger su sistema. Aunque se diseñó el virus para ser
destructivo, realmente tenía un efecto positivo. Las noticias alertaron a personas
sobre los peligros de los virus e informado a ellos de precauciones para proteger
sus sistemas.
Nuevos microprocesadores
43
En 1992 varios microprocesadores nuevos llegaron a ser disponibles los cuales
mejorarían dramáticamente el desempeño de computadoras de escritorio. El Intel
80486 llegó a ser la norma nueva para las PC sistemas y Motorola 68040 dio
energía similar a otra estación. Procesadores más nuevos como el Pentium, i860,
y el chip PowerPC RISC les promete aun a más grandes ganancias en energía del
proceso y rapidez.
Nuevos sistemas operativos
1992 fue un año del estampido para los sistemas operativos nuevos. En abril
Microsoft S.A. lanzó Windows v3.1. Otro programas nuevos incluyen IBM OS/ 2
v2.0, y Apple System 7.1. Todas las versiones nuevas fueron una versión revisada
de sistemas más viejos. Agregaron cosas como tipos de letra y mejoramiento de
vídeo.
Miniaturización
Avances en tecnología de la miniaturización han habilitado a fabricantes de
computadoras continuar a suministrar máquinas de la calidad más alta en
conjuntos más pequeños. El poder del proceso el cual, hace veinte años, habría
ocupado la computadora del equipo central un cuarto entero, hoy día se puede
llevar alrededor de en una computadora de libreta que pesa sólo seis o siete
libras. Palmtop, pequeña bastante como para encajar en un bolsillo, tiene más
rapidez y poder que las supercomputadoras de los 1950.
Redes
Redes de Área Local, o LANs, están entre las técnicas más rápidas desarrolladas
para comunicación entre las oficinas hoy día. Recientemente, avances tecnología
LAN han incluido comunicando computadoras con luces infrarrojas y ondas de
radio. Estos sistemas inalámbricos permiten a los LAN a ser usado sin instalar
cable y permitir a los LAN a ser personalizado fácilmente e ingresar mas
estaciones sin cables.
Guardado de información
44
Entre los muchos adelantos recientes para tecnología de la computadora son esos
sistemas almacenamiento de la información de las máquinas modernas. Tipos de
disquetes los cuales alguna vez mantuvieron 128 kilobytes de información, ahora
pueden guardar 1.2 megabytes de información. Adelantos tal como "flóptical" que
usa sincronización del láser de los discos del floppy, puede mejorar, en otros
tiempos, capacidades inimaginables. CD-ROM, capaces de guardar 500
megabytes de información, llega a ser miniaturizados mientras discos más
pequeños pueden retener más información.
45
Personajes Históricos

Howard Aiken

Charles Babbage

George Boole

Vannervar Bush

Ada Byron, Condesa de Lovelace

John Eckert

Gottfried Wilhelm Leibniz

John Mauchly

Grace Murray Hooper

Blaise Pascal
46

Wilhelm Schickard

Claude Shannon

George Stibitz

Leonardo Torres Quevedo

Alan Turing

John von Neumann

Norbert Wiener

Konrad Zuse
47
Howard Hathaway Aiken (1900 - 1973)
Nació en Nueva Jersey (EE.UU), se
crió en Indianápolis, donde estudió el
Arsenal
Technical
School,
graduándose en 1919. Tras ello
estudió en la universidad de
Wisconsin, en donde se espcecializó
en electrónica. Mientras estudiaba
estuvo trabajando como ingeniero
operario en la Madison Gas and
Electric Company desde 1919 a 1923.
Se graduó como ingeniero electrónico
en 1923.
Tras esto trabajó en la Westinghouse Electric Manufacturing Company, mientras se
preparaba para su postgraduado en la universidad de Harvard, donde obtuvo su M.A
en 1937 y el Ph.D en en física en 1939. Aiken permaneció en Harvard para enseñar
matemáticas, primero como instructor de facultad (de 1939 a 1941), y después como
profesor asociado.
En 1937, antes de la guerra, Aiken presentó el proyecto de construcción de una
computadora, para el que obtuvo el apoyo de IBM. Así nació la MARK I (o IBM ASCC),
termindada en 1944 con un coste de 250000$. Inmediatamente finalizada la marina de
los EE.UU requisó tanto a la máquina como a su inventor para usarlos durante la
Segunda Guerra Mundial, Aiken alcanzó el grado de Comandandte, y la MARK I se
usó para el cálculo de las tablas navales de Artillería.
Para el diseño de la MARK I, Aiken estudió los trabajos de Charles Babbage, y
pensó en el proyecto de la MARK I como si fuera la terminación del trabajo de
Babbage que no concluyó, la máquina analítica, con la que la MARK I tenía mucho en
común.
Además de la MARK I, Aiken construyó más computadoras: MARK II (1947), MARK
III y MARK IV (1952).
Tras la guerra, en 1946, Aiken volvió a Harvard como profesor de matemáticas.
Además, fue nombrado director de los nuevos laboratorios de informática de la
universidad en 1947, Aiken contó con la colaboración de Grace Hooper, encargada de
la programación de la MARK I.
En 1964, Aiken recibió el premio Memorial Harry M. Goode, de la Computer Society,
por su contribución al desarrollo de las computadoras automáticas, y por la
construcción de la MARK I.
48
Charles Babbage (1791 - 1871)
Nació en Teignmouth (Inglaterra),
fue un niño enfermizo. Su padre era
rico por lo que Babbage estudió en
las mejores escuelas privadas.
Enseguida mostró interés por las
matemáticas. Antes de entrar en la
universidad estudiaba en su casa
con la ayuda de un tutor de Oxford,
para así lograr el nivel universitario.
Así en 1810 ingresó en la
Universidad de Cambridge.
En 1812 crea la Sociedad Analítica junto con otros estudiantes de Cambridge y en
1816 ingresa en la Real Sociedad de Matemáticas de Londres.
Durante una de las reuniones de la Sociedad Analítica en 1812, fue cuando a
Babbage se le ocurrió la idea de que era posible diseñar una máquina capaz de
realizar cálculos. En un principio no se dedicó a esta idea, pero en 1819 ya empezó a
diseñar y construir su primera máquina, que terminó en 1822, fue un pequeño motor
en diferencias. La presentó en la Real Sociedad Astronómica de Londres, recibiendo
por ella la medalla de oro de dicha sociedad. Fue entonces cuando obtuvo una
subvención para diseñar y construir una máquina en diferencias más grande, Babbage
esperaba terminarla en 3 años pero la construcción se alargó en el tiempo. En 1834 se
paró la construcción de la máquina en diferencias.
Su trabajo con la máquina en diferencias le condujo a nuevas ideas, y así en 1834
ya tenía realizados los primeros bocetos de la máquina analítica, que nunca llegó a
construirse pero su diseño sentó las bases de la computadora actual.
En 1840 Babbage dio una conferencia en Turín sobre el motor analítico,
presenciando dicha conferencia estaba un matemático italiano llamado Menabrea que
realizó un informe en francés sobre todo lo expuesto por Babbage. Dicho informe lo
tradujo al inglés Ada Lovelace, incorporando varias ideas suyas así como diversos
programas para realizar cálculos complejos con la máquina.
A pesar de que Babbage no pudo construir la máquina analítica, su proyecto supuso
sentar las bases de la informática y todos los conceptos por él expuestos en su diseño
se demostraron que eran correctos años más tarde.
49
George Boole (1815 - 1864)
Boole fue un niño inteligente, y su primer
interés fue hacia los idiomas, siendo capaz de
dominar el latín completamente con 12 años.
Aunque no había estudiado para ello, empezó
dedicándose a la enseñanza siendo a los 16
años profesor auxiliar en un colegio.
También pensó realizar la carrera eclesiástica, pero en 1835 decidió abrir su propio
colegio y fue cuando empezó a estudiar matemáticas por su cuenta, estudiando los
trabajos de Laplace y Lagrange.
Se encaminó hacia el Álgebra publicando una aplicación de métodos algebraicos
para la resolución de ecuaciones diferenciales por el que recibió la medalla de la Real
Sociedad Matemática de Londres.
En 1849 fue nombrado catedrático de matemáticas en el Queens College, donde
ejerció la enseñanza el resto de su vida.
En 1854 publicó sus estudios sobre las teorías matemáticas de lógica y
probabilidad. Boole redujo la lógica a una álgebra sencilla, naciendo así lo que se
conoce como álgebra booleana, la cual influyó en el desarrollo de la informática.
Boole murió a los 49 años por causa de una pulmonía. Aunque Boole tiene otros
muchos estudios en el universo de las matemáticas sin duda alguna se le recordará
por su álgebra, que fue un paso fundamental en el desarrollo de las computadoras.
50
Vannevar Bush (1890 - 1974)
Nació en Massachussets (EE.UU), fue un niño
enfermizo pero con un gran espíritu de superación. En
la escuela ya desmostraba su gran aptitud para las
matemáticas. Ingresó en el Tufts College para estudiar
ingeniería, sus estudios los pagó la mitad con una beca
y la otra mitad trabajando como asistente en el
departamento de matemáticas. Obtuvo el master
en el tiempo en el que normalmente se conseguía la licenciatura. Estando en la
universidad ya realizó sus primeros inventos. Tras graduarse en la universidad trabajó
para General Electric, de donde le despidieron cuando se produjo un incendio en su
planta.
En 1914 dio clases en el Tufts College. En 1915 ingresó en el MIT (Massachussets
Institute Tecnology), en donde obtuvo su doctorado, tras lo cual regresó a Tufts
College para ejercer como profesor auxiliar.
Durante la Primera Guerra Mundial, un grupo de científicos interesados en ayudar
al gobierno norteamericano formó el Consejo de Investigación Nacional (NRC), cuyo
propósito era mejorar el armamento. Una de sus tareas fue el desarrollo de
dispositivos para la detección de submarinos, que fue desarrollado por Bush a partir
de 1917.
Al finalizar la guerra Bush volvió al MIT para dedicarse al desarrollo de
computadoras. En 1927 desarrolló su primera máquina analógica para resolver
sencillas ecuaciones. Bush continuó con sus ideas y así en 1930 desarrolló el
Analizador Diferencial, un dispositivo mecánico para la resolución de ecuaciones
diferenciales. En 1935, Bush desarrolló una segunda versión, cuyos componentes
eran electromecánicos, y la entrada de instrucciones a través de tarjetas perforadas.
Durante la Segunda Guerra Mundial, Bush trabajó como consejero para el
presidente de los EE.UU Roosevelt para la investigación militar. En 1945, publicó un
artículo titulado "Como podemos pensar", en donde describe un máquina teórica
llamada "memex", que se considera como la base teórica del hipertexto, el lenguaje
de programación de internet.
A lo largo de su vida obtuvo muchos premios y reconocimientos, como por ejemplo
la Medalla Nacional de Ciencia que le fue entregada en 1964
51
Ada Byron, Condesa de Lovelace (1815 - 1852)
Ada Byron nació el 10 de diciembre
de 1815. Hija del poeta Lord Byron, su
madre hizo todo lo posible para que no
siguiera los pasos de su padre por lo
que desde pequeña la guió por el
camino de las ciencias y las
matemáticas.
Con 17 años Ada conoció a Mary Sormerville que la animó en sus estudios
matemáticos. Durante una cena organizada por Sormerville en noviembre de 1834,
Ada oyó a Charles Babbage hablar de sus ideas sobre la máquina analítica, y a partir
de ahí surgió la colaboración entre ambos. Babbage trabajó sobre este proyecto y
realizó una conferencia sobre sus trabajos en un seminario de Turín (Italia) en 1840, y
un matemático italiano llamado Menabrea escribió un articulo en francés sobre todo lo
dicho por Babbage. Ada, que estaba casada desde 1843 con el Conde de Lovelace y
era madre de 3 niños, tradujo este artículo, y cuando se lo enseñó a Babbage éste le
sugirió que añadiera sus propias ideas. El resultado fue que las notas que añadió Ada
eran tres veces más del artículo original. En dichas notas, que fueron publicadas en
1843, ella predijo que la máquina de Babbage podría ser usada tanto para un uso
práctico como científico.
Ada sugirió a Babbage escribir un "plan" para que la máquina calculase números de
Bernuilli, este "plan" es considerado el primer "programa de ordenador", y por ello se
considera a Ada el primer programador de la historia. Existe un lenguaje de
programación desarrollado por el departamento de defensa de USA en 1979 que lleva
su nombre: ADA.
Fue una mujer adelantada a su tiempo, que lamentablemente murió muy joven (con
37 años).
52
John Presper Eckert (1919 - 1995)
Nació en Filadelfia (EE.UU), en
1937 ingresó en la Universidad de
Pensylvania para estudiar ingeniería
eléctrica, terminando la carrera en
1941 con excelentes calificaciones.
Tras su graduación le dieron un
puesto como instructor de cursillos de
electrónica
para las investigaciones que se llevaban a cabo con motivo de la Segunda Guerra
Mundial. Uno de sus alumnos es dichos cursillos fue John Mauchly (que era 12 años
mayor que Eckert).
Eckert enseguida se interesó por las ideas que tenía Mauchly sobre la construcción
de una computadora. De la colaboración de ambos surgió el proyecto ENIAC.
En Mayo de 1943 designaron a Eckert ingeniero principal del proyecto cuya tarea
especifica era diseñar los circuitos electrónicos. Uno de los problemas que solucionó
fue conseguir que las 18000 válvulas de las que estaba compuesto el ENIAC tuvieran
una vida larga para que así el ENIAC fuera viable.
También se encargó del diseño de las calculadoras en base 10 para el ENIAC.
En octubre de 1946 Eckert abandonó la universidad de Pensylvania, al igual que
Mauchly. Creando juntos la empresa "Control Electrónico" (Eckert-Mauchly
Corporation) construyendo diversas computadora como el BINAC (Computadora
Binaria Automática) en la que los datos eran almacenados en cintas magnéticas, o el
UNIVAC (Computadora Universal Automática) que fue la primera que se comercializó
en EEUU. Pero tuvieron problemas económicos con lo que su empresa fue absorbida
en 1950 la Rand Remington Corporation, Eckert permaneció en la compañía pasando
a ser un ejecutivo de la misma. Se fusionaron con Burroughs Corporation creándose
así Unisys. Eckert se retiró de Unisys en 1989, aunque siguió ejerciendo como
consultor para distintas empresas.
Eckert tenía muchas patentes sobre electrónica. Y recibió numerosos premios por
su trabajo pionero en el mundo de las computadoras, como la Medalla Nacional de
Ciencia en 1969 (el más prestigioso en EEUU).
53
Gottfried Wilhelm Leibniz (1646 - 1716)
Filósofo, matemático y estadista
alemán. Estudió en las universidades
de Leizpig, Jena y Altdof. En 1666
obtuvo un doctorado en leyes
dedicándose a tareas legales,
políticas y diplomáticas.
En 1673 se trasladó a París realizando constantes viajes a Inglaterra, en esa época
fue cuando más se dedicó a estudiar matemáticas y ciencias. Fue cuando empezó a
interesarse por la mecanización del cálculo como demuestran sus palabras: "Es
despreciable que excelentes hombres pierdan horas trabajando como esclavos en las
tareas de cálculo, las cuales podrían ser relegadas con toda seguridad a cualquier otra
persona si las máquinas fueran usadas". Diseñó una máquina capaz de realizar
cálculos matemáticos siendo unas de las primeras de la historia. En un principio
durante uno de sus viajes a Londres mostró a la Real Sociedad de Matemáticas su
calculadora incompleta. Algunos miembros de dicha Sociedad mostraron sus dudas
sobre su calculadora. Esto produjo que Leibniz se esforzará más prometiendo a la
Real Sociedad que terminaría la calculadora. Algo que consiguió y con ello el
reconocimiento de la Real Sociedad.
Leibniz desarrolló varios aspectos de la lógica simbólica como la formulación de las
propiedades principales de la suma lógica y la multiplicación lógica, entre otras
muchas.
Su contribución más notable a las matemáticas fue la creación, junto con Newton,
del cálculo infinitesimal.
Dentro de la filosofía, al igual que el filósofo y teólogo español Ramón Llull, Leibniz
tenía la idea de que era posible que las máquinas generaran ideas automáticamente,
es decir por si solas. Estaba convencido de que el pensamiento era fruto de la
realización de un cálculo.
Desde 1676 hasta que murió trabajó como bibliotecario y consejero privado en la
corte de Hannover (Alemania).
54
John W. Mauchly (1907 - 1980)
Aunque consiguió una beca para
estudiar ingeniería, se dedicó a
estudiar
física
obteniendo
el
doctorado en 1932.
En 1940, cuando estaba dando
clases de física en el Colegio Ursinos
en Filadelfia,
empezó a interesarse por el mundo de la computadora empezando a investigar el
desarrollo de circuitos eléctricos.
En 1941, en plena Segunda Guerra Mundial, Mauchly recibió un cursillo sobre
electrónica para utilizarla para la defensa (ejército) en la universidad de Pensylvania.
Mauchly empezó a desarrollar ideas para la construcción de computadoras, y fue
entonces cuando John Eckert (que fue uno de sus instructores en el cursillo) se
interesó por dichas ideas, y en 1943 se aprobó la construcción del computador ENIAC
(en donde colaboró activamente Eckert), cuya función específica sería el cálculo de
trayectorias de las bombas. Hasta 1946 no se terminó de construir.
Mauchly y Eckert abandonaron la universidad de Pensylvania en 1946 fundando la
empresa "Control Electrónico" (Eckert-Mauchly Corporation) . La compañía aérea
Northrop les encargó la "Computadora Binaria Automática" (BINAC) construida en
1949. En el BINAC los datos eran almacenados sobre cinta magnética en vez de en
tarjetas perforadas.
Otra de las computadoras que construyeron fue la "Computadora Universal
Automática" (UNIVAC), que fue la primera computadora que se comercializó en EEUU
(se vendieron 46 unidades).
Pero Mauchly y Eckert eran mejores ingenieros que economistas por lo que su
empresa fue absorbida por otra compañía. En 1965 Mauchly abandonó la empresa.
En 1966 recibió el premio concedido por la Computer Society por su aportación al
desarrollo de las computadoras.
55
Grace Murray Hopper (1906 - 1992)
Nació en Nueva York (EE.UU), desde
muy pequeña demostró una gran aptitud
para las ciencias y las matemáticas. Y
tanto su abuelo como su padre siempre
la animaron a que las estudiara. También
le atrajo mucho cualquier tipo de
dispositivo mecánico, y así lo demuestra
cuando con
7 años desarmó todos los relojes de su casa para ver si podía así entender su
funcionamiento. En el colegio ya destacaba como alumna en matemáticas.
Su padre siempre motivó a su hija para que estudiara y llegará a la universidad para
así ser autosuficiente. Hopper estudió en varias escuelas privadas para mujeres, y en
1924 ingresó en Vassar College en Nueva York, donde cursó estudios en matemáticas
y física, graduándose con honores en 1928. A continuación obtuvo una beca para
cursar un master en matemáticas en la universidad de Yale, de donde se graduó en
1930.
Vassar College le ofreció un puesto como asistente en su departamento de
matemáticas, en donde permaneció hasta 1943 mientras continuaba sus estudios en
Yale, obteniendo el doctorado en matemáticas en 1934.
En 1943 decidió unirse a las fuerzas armadas en plena Segunda Guerra Mundial,
para lo cual tuvo que obtener un permiso especial. Asistió a la Escuela de cadetes
navales para Mujeres, graduándose la primera de su clase en 1944 y obteniendo el
rango de teniente. Fue enviada a Harvard para trabajar en el Proyecto de
Computación que dirigía el comandante Howard Aiken, la construcción de la Mark I.
Tras el final de la Segunda Guerra Mundial Hooper quiso seguir en la Armada pero
como ya había cumplido los 40 años en 1946 (el límite eran 38) fue rechazada
permaneciendo en la reserva. Por lo que siguió en Harvard como Investigadora junto a
Aiken. Desarrolló varias aplicaciones contables para la Mark I, que estaba siendo
utilizada por una compañía de seguros.
Permaneció en Harvard hasta 1949, cuando Hopper empezó a trabajar en la Eckert
- Mauchly Corporation en Filadelfia (compañía fundada por los inventores del ENIAC,
Eckert y Mauchly), que en esos momentos estaban desarrollando las computadoras
BINAC y UNIVAC I. Trabajó en esa compañía y en sus sucesoras hasta su retiro en
1971. Allí fue donde Hopper realizó sus mayores contribuciones a la programación
moderna. En 1952, desarrolló el primer compilador de la historia, llamado A-0, y en
1957 realizó el primer compilador para procesamiento de datos que usaba comandos
en inglés, el B-0 (FLOW-MATIC), cuya aplicación principal era el cálculo de nóminas.
56
Tras su experiencia con FLOW-MATIC, Hopper pensó que podía crearse un lenguaje
de programación que usara comandos en inglés y que sirviera para aplicaciones de
negocios. La semilla de COBOL había sido sembrada, y 2 años después se creó el
comité que diseño el famoso lenguaje. Aunque Hopper no tuvo un papel
preponderante en el desarrollo del lenguaje, fue miembro del comité original para
crearlo, y el FLOW-MATIC fue una influencia tan importante en el diseño de COBOL,
que se considera a Hopper como su creadora.
Hooper trabajando
con la UNIVAC
Hopper permaneció en la reserva de la Armada hasta 1966, cuando tuvo que
retirarse con el grado de Comandante, por haber alcanzado el límite de edad
nuevamente. Pero este retiro duró poco ya que la Armada la volvió a llamar en 1967
para que estandarizara los lenguajes de alto nivel que usaban. Se reincorporó y
permaneció en el servicio durante 19 años más.
En 1986, Hopper se retiró de la Armada de manera definitiva, siendo en ese
momento la oficial de más edad de la Armada de los EE.UU. Tras su retiro, se
incorporó como asesora en Digital Equipment Corporation, participando en foros
industriales, dando unas 200 conferencias por año y participando en programas
educativos hasta 1990, cuando la "increíble Grace", que era como la conocían sus
amistades, se retiró definitivamente.
A lo largo de su vida, Hopper recibió numerosos reconocimientos, que incluyen más
de 40 doctorados honoris causa, la Medalla Nacional de Tecnología, la Medalla Wilbur
Lucius Cross de Yale, el rango de Comodore en 1983 y el de contra-almirante en
1985.
57
Blaise Pascal (1623 - 1662)
Nacido
en
Clermont
(Francia), quedó huérfano
de madre a los 3 años. En
1632 se trasladó a vivir a
París. El padre de Pascal
tenía unas opiniones poco
ortodoxas
sobre
la
educación, por lo que él se
dedicaba a enseñar a su
propio hijo. Unas de dichas
opiniones era que Pascal
no
debía
estudiar
matemáticas, pero esto
produjo
en
Pascal
curiosidad que le llevó a
estudiarlas a espaldas de
su padre.
En 1639 la familia Pascal se trasladó a vivir a Rouen, donde habían destinado al
padre como recaudador de impuestos.
Para ayudar a su padre en su trabajo, Pascal inventó uno calculadora mecánica.
Trabajó varios años en este proyecto hasta perfeccionarla, a la máquina se la conoció
como la Pascalina. Se construyeron y comercializaron varios ejemplares de la
máquina que estaba pensada para cálculos con la moneda francesa. Esto hace que
Pascal fuera la segunda persona tras Schickard en inventar una calculadora
mecánica.
La Pascalina
Otro de los campos en los que estudió Pascal fue la física, y más concretamente
sobre la presión atmosférica publicando en 1653 el Tratado sobre el equilibrio de
líquidos.
En 1654 formuló, junto con Pierre de Fermat, la teoría matemática de la
58
probabilidad.
Pascal fue un hombre profundamente religioso, y esto se reflejaba es sus trabajos
filosóficos, como el que publicó en 1656 Pensées, en donde dice: "Si Dios no existe,
uno no perderá nada creyendo en él, mientras que si él existe, uno perderá todo por
no creer".
59
Wilhelm Schickard (1592 - 1635)
Nació en Herrenberg
(Alemania), estudió en la
universidad de Tübingen
hasta
1613
habiendo
cursado teología y lenguas
orientales.
En 1613 fue nombrado
ministro Luterano, cargo
que ocupó hasta 1619
cuando pasó a ejercer de
profesor de hebreo en la
universidad de Tübingen.
En 1631 cambió y empezó a enseñar astronomía en la misma universidad. Fue
entonces cuando se ampliaron sus investigaciones al universo de las matemáticas;
inventó numerosas máquinas como por ejemplo para el cálculo de fechas
astronómicas. Otro campo en donde realizó progresos fue en la cartografía.
Actualmente se reconoce a Schickard como el primero en construir una máquina
mecánica de calcular, según consta en unas cartas enviadas a su a amigo Kepler en
1624, en donde le explica el diseño y funcionamiento de una máquina que había
construido a la que denominó reloj calculante. La carta iba acompañada de varios
bocetos, y explicaba que la máquina fue destruida en un misterioso incendio ocurrido
en la casa de Schickard:
"... Te haré en otra ocasión un diseño más cuidadoso de la máquina aritmética; en
resumidas cuentas, mira lo siguiente: aaa son los botones de los cilindros verticales
que llevan las cifras de la tabla de multiplicación, que aparecen a la voluntad en las
ventanas de las correderas bbb. Los discos ddd son solidarios con ruedas dentadas
interiores, de diez dientes, engranadas entre sí de manera que, si la rueda de la
derecha da diez vueltas su vecina de la izquierda sólo da una; y que si la primera de la
derecha da cien vueltas la tercera de la izquierda da una, y así sucesivamente. Todas
ellas giran en el mismo sentido por lo que es necesaria una rueda de reenvío del
mismo tamaño engranando permanentemente con su vecina de la izquierda, aunque
no con la de la derecha, lo que requiere un cuidado especial en la fabricación. Las
cifras marcadas en cada una de las ruedas se leen en las aberturas ccc de la plancha
central. Finalmente, sobre el zócalo se encuentran los botones eee que sirven para
inscribir en las aberturas fff las cifras que se hayan de anotar en el curso de las
operaciones. Sería muy prolijo completar esta rápida descripción que se comprendería
mejor con la práctica. Te había hecho fabricar un ejemplar de esta máquina por J.
Pfister, que vive aquí; pero ha sido destruido hace tres días junto con algunas de mis
pertenencias... en un incendio nocturno..."
60
Diseño de la máquina de Schickard
Gracias a toda la información que dejó Schickard se ha podido reconstruir algunos
ejemplares, habiendo uno, por ejemplo, en el Museo de la Ciencia de Munich.
Reconstrucción de la máquina de Schickard
61
Claude Shannon (1916 - 2001)
Nació en Michigan (EE.UU),
tras obtener los títulos en
Matemáticas e Ingeniería en la
universidad de Michigan, ingresó
en el MIT (Massachusset Institute
of Technology) para continuar en
sus estudios. Fue allí donde
realizó una tesis con respecto el
uso del álgebra de Boole para la
construcción
de
máquinas
lógicas.
En 1940 obtuvo el doctorado en Matemáticas, pasando a trabajar durante un año
en el Instituto de Estudios Avanzados de Princeton.
Transcurrido dicho año entró a trabajar en la Bell Telephone en New Jersey,
realizando investigaciones para obtener mejoras en la transmisión de información a
través de las líneas telefónicas a larga distancia.
En 1948 publicó "Una teoría matemática de la comunicación" que estableció las
bases de la comunicación actual.
Shannon estaba muy interesado en la idea de que las máquinas pudieran aprender,
y por ello en 1952 inventó un ratón eléctrico capaz de encontrar el camino correcto en
un laberinto. Siendo uno de los padres de lo que conocemos por inteligencia artificial.
62
George R. Stibitz (1904 - 1995)
Nació en Pensylvania (EE.UU),
se graduó como doctor en
matemáticas Aplicadas por la
universidad de Denison en 1926.
Recibió un M.S del Union College
en 1927, y el doctorado en física
por la universidad de Cornell en
1930.
Al finalizar sus estudios entró a
trabajar
en los Laboratorios Bell como consultor matemático. En 1937, desarrolló una máquina
digital basada en relés, y válvulas, a la que llamó "Model K" (K de kitchen, cocina en
inglés, ya que la fabricó encima de la mesa de la cocina), una réplica de esta máquina
se encuentra en el museo Smithsonian. En 1939, para realizar cálculos aritméticos
con números complejos necesarios en trabajos de filtrado de señales, empezó la
construcción de una máquina llamada "Complex Number Calculator", realizando una
espectacular demostración en 1940.
De 1940 a 1945, trabajó en la Oficina estadounidense de Investigación y desarrollo
Científico. Durante la Segunda Guerra Mundial, fue consultor en matemáticas para
varias agencias del gobierno norteamericano.
En 1964 se unió al Departamento de Filosofía en la Facultad de medicina de
Dartmouth, para trabajar en la investigación del uso de la física, las matemáticas y las
computadoras en sistemas biofísicos. A partir de 1966 se dedicó a ejercer la
enseñanza.
63
Leonardo Torres Quevedo (1852 - 1936)
Nació en Santa Cruz de Iguña
(Santander), fue el ingeniero español
más
reconocido.
Gran
científico,
desarrolló
numerosos
inventos
reconocidos internacionalmente, sobre
todo en el campo de la automática,
considerándosele como precursor de la
informática.
En su juventud residió en Bilbao en donde en 1868 acaba sus estudios de
Bachillerato marchándose a Paris durante dos años para continuar con sus estudios.
En 1870 se trasladó, junto con su familia, a vivir a Madrid, y un año más tarde ingresó
en la Escuela Oficial del Cuerpo de Ingenieros de Caminos, finalizando sus estudios
en 1876.
Al término de dichos estudios se dedicó a ejercer la ingeniería y a viajar por toda
Europa adquiriendo más conocimientos. En 1885 regresó a España iniciando así su
gran trayectoria científica e inventiva.
En 1887 Torres Quevedo empiezó la investigación y desarrollo de un trasbordador,
realizando el primero en su propia casa. En 1907 construyó el primer trasbordador
apto para el transporte humano, lo hizo en el Monte Ulía (San Sebastián). A partir de
aquí construyó muchos otros, mediante la Sociedad de Estudios y Obras de Ingeniería
de Bilbao, por ejemplo en Chamoix, o Río de Janeiro. Pero el más famoso fue el
construido sobre las Cataratas del Niágara llamado "Spanish Aerocar", que se
inauguró en pruebas en 1916, siguiendo hoy en día en pleno funcionamiento.
En 1894 presentó a la Real Academia de Ciencias una memoria sobre las
máquinas algebraicas, incorporando el diseño de una, que más adelante construyó.
Una máquina analógica que resolvía ecuaciones algebraicas, y para la que inventó un
"husillo sin fin".
En 1902 presentó en las Academias de Ciencias de Madrid y Paris un nuevo
modelo de dirigible, con muchas mejoras respecto a los ya existentes. En 1905
construyó el primer dirigible español, llamado el "España".
En 1903, Torres Quevedo diseñó y construyó el primer aparato de radiocontrol del
mundo, el telekino, presentándolo en la Academia de Ciencias de Paris.
Otros de los inventos de Torres Quevedo fueron los jugadores ajedrecistas, que se
consideran como precursores de la inteligencia artificial. Construyó dos, el primero en
1912 que fue expuesto en Paris, y el segundo en 1920 con la ayuda de su hijo.
En 1914 publicó una memoria titulada "Ensayos sobre Automática". Con este
64
trabajo Torres Quevedo muestra la posibilidad de diseñar un computador digital
electromecánico 20 años antes de que se empezaran a construir.
En 1920 construyó el "aritmómetro electromecánico", que era una máquina
calculadora junto con una máquina de escribir, que se puede considerar antecesora
de la calculadora digital.
A lo largo de su vida recibió varios premios y reconocimientos, entre ellos:




1916. Se le concede la Medalla Echegaray de manos de Alfonso XIII.
1918. Rechaza el cargo de Ministro de Fomento.
1920. Ingresa en la Real Academia Española sustituyendo a Benito Pérez
Galdós.
1922. Es nombrado Doctor Honoris Causa por la Universidad de la Sorbona.
65
Alan Mathison Turing (1912 - 1954)
Nació en Londres (Gran
Bretaña), desde muy temprana
edad Turing demostró su
inteligencia. Alos 3 años tenía
una inusual capacidad para
recordar palabras y a los 8 años
se interesó por la química
montando un laboratorio en su
casa. Con 13 años ingresó en la
escuela Sherborne, en
la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad
para realizar cálculos mentalmente.
Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se
graduó de la licenciatura de matemáticas con honores en 1934. En abril de 1936,
publicó el artículo "On computable numbers, with an application to the
Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de
Turing. Este artículo da respuesta (negativa) al problema de la decisión formulada por
Hilbert en 1900, probando que existen problemas sin solución algorítmica y es uno de
los cimientos más importantes de la teoría de la computación.
En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU). Su
artículo atrajo la atención de uno de los científicos más destacados de la época, John
von Neumann, quien le ofreció una beca en el Instituto de Estudios Avanzados. Turing
obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von Neumann le
ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a
Inglaterra, en donde vivió de una beca universitaria mientras estudiaba filosofía de las
matemáticas entre 1938 y 1939.
En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por
el ejército británico para descifrar los códigos emitidos por la máquina Enigma utilizada
por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se
comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la
supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en
1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en
1946.
En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para
competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como
Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia
1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y
biblioteca de software. También describió las ideas básicas de lo que hoy se conoce
66
como red neuronal. Abandonó la NLP en 1948.
Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la
arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes
que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado
en el código empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede
decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and
Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este
artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas?
". Turing propuso un método llamado el test de Turing para determinar si las máquinas
podrían tener la capacidad de pensar.
En 1951, es nombrado miembro de la Sociedad Real de Londres por sus
contribuciones científicas. Y en su honor, la Association for Computing Machinery
llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los
expertos que han realizado las mayores contribuciones al avance de la computación
67
Alan Mathison Turing (1912 - 1954)
Nació en Londres (Gran
Bretaña), desde muy temprana
edad Turing demostró su
inteligencia. Alos 3 años tenía
una inusual capacidad para
recordar palabras y a los 8 años
se interesó por la química
montando un laboratorio en su
casa. Con 13 años ingresó en
la escuela Sherborne, en
la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad
para realizar cálculos mentalmente.
Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se
graduó de la licenciatura de matemáticas con honores en 1934. En abril de 1936,
publicó el artículo "On computable numbers, with an application to the
Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de
Turing. Este artículo da respuesta (negativa) al problema de la decisión formulada por
Hilbert en 1900, probando que existen problemas sin solución algorítmica y es uno de
los cimientos más importantes de la teoría de la computación.
En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU). Su
artículo atrajo la atención de uno de los científicos más destacados de la época, John
von Neumann, quien le ofreció una beca en el Instituto de Estudios Avanzados. Turing
obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von Neumann le
ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a
Inglaterra, en donde vivió de una beca universitaria mientras estudiaba filosofía de las
matemáticas entre 1938 y 1939.
En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por
el ejército británico para descifrar los códigos emitidos por la máquina Enigma utilizada
por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se
comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la
supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en
1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en
1946.
En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para
competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como
Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia
1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y
biblioteca de software. También describió las ideas básicas de lo que hoy se conoce
68
como red neuronal. Abandonó la NLP en 1948.
Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la
arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes
que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado
en el código empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede
decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and
Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este
artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas?
". Turing propuso un método llamado el test de Turing para determinar si las máquinas
podrían tener la capacidad de pensar.
En 1951, es nombrado miembro de la Sociedad Real de Londres por sus
contribuciones científicas. Y en su honor, la Association for Computing Machinery
llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los
expertos que han realizado las mayores contribuciones al avance de la computación.
69
Alan Mathison Turing (1912 - 1954)
Nació en Londres (Gran
Bretaña), desde muy temprana
edad Turing demostró su
inteligencia. Alos 3 años tenía
una inusual capacidad para
recordar palabras y a los 8 años
se interesó por la química
montando un laboratorio en su
casa. Con 13 años ingresó en la
escuela Sherborne, en
la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad
para realizar cálculos mentalmente.
Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se
graduó de la licenciatura de matemáticas con honores en 1934. En abril de 1936,
publicó el artículo "On computable numbers, with an application to the
Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de
Turing. Este artículo da respuesta (negativa) al problema de la decisión formulada por
Hilbert en 1900, probando que existen problemas sin solución algorítmica y es uno de
los cimientos más importantes de la teoría de la computación.
En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU). Su
artículo atrajo la atención de uno de los científicos más destacados de la época, John
von Neumann, quien le ofreció una beca en el Instituto de Estudios Avanzados. Turing
obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von Neumann le
ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a Inglaterra,
en donde vivió de una beca universitaria mientras estudiaba filosofía de las
matemáticas entre 1938 y 1939.
En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por
el ejército británico para descifrar los códigos emitidos por la máquina Enigma utilizada
por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se
comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la
supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en
1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en
1946.
En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para
competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como
Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia
1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y
biblioteca de software. También describió las ideas básicas de lo que hoy se conoce
70
como red neuronal. Abandonó la NLP en 1948.
Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la
arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes
que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado
en el código empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede
decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and
Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este
artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas?
". Turing propuso un método llamado el test de Turing para determinar si las máquinas
podrían tener la capacidad de pensar.
En 1951, es nombrado miembro de la Sociedad Real de Londres por sus
contribuciones científicas. Y en su honor, la Association for Computing Machinery
llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los
expertos que han realizado las mayores contribuciones al avance de la computación.
71
John von Neumann (1903 - 1957)
Nació en Budapest (Hungría), su
nombre verdadero es Margittai
Neumann János (los húngaros
colocan sus apellidos antes que el
nombre) que se puede traducir
como János Neumann de Margitta,
que se transformó en Jhohann
Neumann von Margitta cuando se
trasladó a Alemania y
que luego se lo recortaron quedándose en Johann von Neumann, para finalmente
conocérsele mundialmente como John von Neumann, al llegar a EE.UU.
John von Neumann fue un niño prodigio, con una gran memoria fotográfica y una
gran habilidad para los idiomas. A los 10 años ingresó al Gimnasio Luterano, en donde
destacó por su talento para las matemáticas. Ingresó en la universidad de Budapest
en 1921 para estudiar matemáticas, aunque sólo iba a la universidad cuando tenía que
hacer los exámenes, en cambio si asistía a clases de química en Berlín, entre 1921 y
1923. Su padre no quería que estudiase matemáticas, ya que pensaba que no era una
carrera con la que que luego pudiera ganar dinero, por eso von Neumann ingresó en
Eidgenssische Technische Hochschule (ETH) en Zurcí para estudiar ingeniería
química, sin darse de baja en la universidad de Busapest.
En 1925 obtuvo la licenciatura en ingeniería química, y en 1926 el doctorado en
matemáticas. De 1926 a 1927 trabajó en la universidad de Göttingen gracias a una
beca. En 1927 fue nombrado conferenciante en la universidad de Berlín.
En 1930, fue invitado para trabajar como profesor visitante en la universidad de
Princeton (EE.UU), y durante 3 años von Neumann pasaba medio año enseñando en
Princeton y medio año enseñando en Berlín. En 1933 fue contratado por el Instituto de
Estudios Avanzados (IEA) y en 1937 se nacionalizó norteamericano.
Al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de
los EE.UU, hacia 1943 von Neumann empezó a interesarse por la computación para
ayudarse en su trabajo, en aquellos años había numerosas computadoras en
construcción, como por ejemplo la Mark I (Howard Aiken) o Complex Computer
(George Stibiz), pero con la que von Neumann se involucró fue el ENIAC (junto con
John Presper Eckert y John W. Mauchly). Una vez finalizada la construcción del
ENIAC y viendo sus limitaciones, decidieron definir todo un nuevo sistema lógico de
computación basado en las ideas de Turing y se enfrascaron en el diseño y la
construcción de una computadora más poderosa el EDVAC (Electronic Discrete
Variable Arithmetic Computer). Pero hubo problemas legales con la titularidad de lo
que hoy conocemos como Arquitectura de von Neumann. Esto produjo que el diseño
se hiciera público, al final Eckert y Mauchly siguieron su camino y von Neumann
72
regresó a Princeton con la idea de construir su propia computadora.
En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las
bases de la computadora actual, conociéndose como "arquitectura de von Neumann".
Otras de sus contribuciones en computación fueron por ejemplo el uso de monitores
para visualizar los datos y el diagrama de flujo. También colaboró en el libro
"Cibernética: control y comunicación en el animal y en la máquina" escrito junto con
Norbert Wiener, en donde se explica la teoría de la cibernética.
En 1954 empezó a trabajar para la Comisión de Energía Atómica. A lo largo de su
vida von Neumann obtuvo numerosos reconocimientos por su labor científica, como
varios doctorados Honoris Causa, la medalla presidencial al mérito, y el premio Albert
Einstein. También recibió en 1956 el premio Enrico Fermi de la Comisión de Energía
Atómica por sus "notables aportaciones" a la teoría y diseño de las computadoras
electrónicas.
73
Norbert Wiener (1894 - 1964)
Nació en Columbia (EE.UU), fue
un niño prodigio y a los 11 años
ingresó en la universidad; estudió en
las
universidades
de
Cornell,
Cambrigde, Göttingen y Harvard, en
esta última obtuvo su doctorado en
matemáticas con 19 años.
Durante la Segunda Guerra Mundial, Wiener trabajó para su gobierno en proyectos
relacionados con la defensa antiaérea. Fue cuando se dio cuenta de la necesidad de
mejorar las computadoras que había en aquella época, se encaminó hacia la
comunicación de información y para ello en el desarrollo de los sistemas de redes.
Tras la guerra Wiener continuó constribuyendo con nuevas ideas en diversos
campos, incluyendo la teoría de la predicción matemática y la teoría cuántica
(debatiendo con físicos como Niels Bohr y Albert Einstein).
En 1942, durante un congreso en Nueva York, conoció al científico Rosenblueth y
empezó a investigar acerca de los robots y sistemas automáticos, sentando así los
fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por Wiener en
1947, y que procede del griego "kybernetes" y que significa piloto. En 1948 publicó su
obra "Cibernética: control y comunicación en el animal y en la máquina", en donde
desarrolla toda la teoría de la cibernética.
Fue profesor de matemáticas en el Instituto Tecnológico de Massachussets (MIT)
desde 1932 hasta 1960, también impartió cursos por numerosas universidades del
mundo (México, India,...).
Poco antes de morir en 1964 recibió la Medalla Nacional de EE.UU en ciencia de
manos del presidente Lindon B. Johnson.
Existe un premio que lleva su nombre y se entrega desde 1987 por la CPSR
(Computer Profesional for Social Responsibility) anualmente a aquellas personas que
se dedican a difundir e incrementer el uso de la nuevas tecnologías.
74
Konrad Zuse (1910 - 1995)
Nació en Berlín - Wilmersdorf (Alemania),
a los 9 años ingresó en el Gymnaisum
Hosianum; durante toda su vida como
estudiante siempre fue alrededor de 2 años
más joven que sus compañeros de clase. A
los 14 años Zuse cambió de escuela e
ingresó en Realgymnasium.
Zuse ingresó en la Technische Hochschule en Berlín con 17 años para estudiar
ingeniería mecánica, aunque luego se cambió a arquitectura y acabó por graduarse
como ingeniero civil en 1935. Fue mientras estudiaba, cuando se le ocurrió la idea de
construir una máquina para realizar cálculos.
Entre 1935 y el inicio de la Segunda Guerra Mundial (1939), Zuse construyó dos
máquinas, la Z1 y la Z2. La Z1 era un sistema mecánico, pero Zuse se dio cuenta de
las limitaciones por lo que la rediseñó usando relés telefónicos naciendo así la Z2.
Ya durante la Segunda Guerra Mundial, Zuse quiso construir una computadora
utilizando tubos de vacío, y a pesar que en plena guerra era muy difícil obtener las
piezas, Zuse logró construir la Z3, que él mismo denominó la "primera computadora
funcional del mundo", en 1941 se mostró la Z3 al Instituto de Investigaciones
Aeronáuticas de Alemania (DVL). La demostración fue un éxito y la DVL le ofreció un
contrato a Zuse para que construyera la Z4. La Z3 fue destruida durante uno de los
bombardeos a Berlín, pero debido a su importancia histórica fue reconstruida 20 años
después para el Deutsches Museum de Munich. Al igual que para la Z3, la
construcción de la Z4 fue dificultoso por la escasez de piezas. Y fue milagrosamente
salvada de los constantes bombardeos, en los cuales se destruyeron todas las
máquinas de Zuse. Con la ayuda del gobierno alemán, se trasladó la Z4 hasta una
granja en los Alpes junto a Zuse y su familia.
Al finalizar la guerra, y con la llegada de los aliados, la Z4 fue examinada por
británicos y norteamericanos, y fue cuando Zuse oyó hablar por primera vez de las
computadoras Mark I y ENIAC. Increíblemente el trabajo de Zuse y la Z4 fue ignorado.
Entre 1945 y 1946 Zuse desarrolló el Plankalkül, o cálculo de planes, que se
considera el primer lenguaje algorítmico del mundo.
En 1947, mientras Alemania se recuperaba de la guerra, Zuse fundó la compañía
Zuse-Ingenieurbüro (que más adelante pasaría a ser la ZUSE-KG); IBM intentó tentar
a Zuse pero no lo consiguió. En cambio si que llegó a un acuerdo con la Remington
Rand para desarrollar nuevas computadoras como la Z4, que fue usada desde 1950
hasta 1954 por el Instituto Federal Suizo de Tecnología.
75
En los años 50, se desarrolló la Z5, la última de las grandes máquinas de cómputo
basada en relés. Otras de las computadoras que desarrolló fueron la Z11, la Z22 (de
tubos de vacío) o la Z23 (de transistores). La ZUSE KG creció hasta tener cerca de
1000 empleados pero a pesar de ello al final acabó en la bancarrota en 1957,
subsistiendo con dificultad. En 1958, Zuse desarrolló y construyó un graficador (o
plotter) controlado por computadora, el Z64 o Graphomat.
En 1964 la ZUSE KG fue vendida a la Brown, Boveri and Company. En 1966 Zuse
fue nombrado profesor honorario de la universidad de Göttingen y en 1967 la ZUSE
KG fue finalmente absorbida por la empresa Siemens, trabajando Zuse durante varios
años como consultor para ella. Al final de su vida se dedicó su otra gran pasión: la
pintura.
Debido a la Segunda Guerra Mundial y a que era alemán, Konrad Zuse permaneció
muchos años en el anonimato, pero a pesar de ello Zuse demostró durante toda su
vida su genialidad mediante sus ideas y máquinas, por eso es sin duda alguna uno de
los pioneros de la informática.
76
Lenguajes de Programación
Tras el desarrollo de las primeras computadoras surgió la necesidad de
programarlas para que realizaran las tareas deseadas.
Los lenguajes más primitivos fueron los denominados lenguajes máquina.
Como el hardware se desarrollaba antes que el software, estos lenguajes se
basaban en el hardware, con lo que cada máquina tenía su propio lenguaje y
por ello la programación era un trabajo costoso, válido sólo para esa
máquina en concreto.
El primer avance fue el desarrollo de las primeras herramientas
automáticas generadoras de código fuente. Pero con el permanente
desarrollo de las computadoras, y el aumento de complejidad de las tareas,
surgieron a partir de los años 50 los primeros lenguajes de programación de
alto nivel.
Con la aparición de los distintos lenguajes, solían aparecer diferentes
versiones de un mismo lenguaje, por lo que surgió la necesidad de
estandarizarlos para que fueran más universales. Las organizaciones que se
encargan de regularizar los lenguajes son ANSI (Instituto de las Normas
Americanas) y ISO (Organización de Normas Internacionales).
Evolución de los lenguajes de programación:
1950
Lenguaje Ensamblador (lenguaje máquina)
Lenguajes experimentales de alto nivel
1955
77
1956
FORTRAN
ALGOL 58 y 60
COBOL
LISP
1960
1961
FORTRAN IV
COBOL 61 Extendido
ALGOL 60 Revisado
SNOBOL
BASIC
APL (como notación sólo)
PL/I
1965
1966
APL/360
FORTRAN 66 (estándar)
COBOL 65 (estándar)
ALGOL 68
SNOBOL 4
SIMULA 67
1970
78
1971
COBOL 74
PASCAL
1975
1976
ADA
FORTRAN 77
PROLOG
C
Modula-2
1980
1980
C++
JAVA
2000
79
Componentes
1897 Primer tubo electrónico (de rayos catódicos).
1904 El físico inglés John Ambrose Fleming inventa el diodo de vacío
(llamado válvula de vacío), que reemplaza a los relés
electromecánicos (relés telefónicos) y como dispositivo biestable
(con dos estados).
Vávula de vacío
1906 Se obtienen diodos de silicio (semiconductores).Se construye el
triodo (equivalente al transistor pero en válvula de vacío).
1612 Construcción de la radio por Marconi.
1929 Se desarrolla el tiratron, comienzo de la electrónica de potencia.
1947 Walter Brattain, John Barden y W. Shockley inventan en los
laboratorios Bell el transitor, que sustituyó a la válvula de vacío
por su mayor fiabilidad, su menor tamaño y su menor coste.
80
Primer transistor
1950 Aparece el transistor bipolar.
1953 Shockly propone el transistor de efecto de campo (FET).
Memorias de ferrita inventadas por Forrester y Wang.
1955 Descubrimiento del tiristor.
1956 Premio Nobel en física a Barden, Brattain, y Shockly por el
descubrimiento del transistor.
1958 Jack Kilby inventa el circuito integrado, usandose en un principio
para chips de memoria.
1961 Comercialización de los circuitos integrados por Texas
Instruments y Fairchild, con una pequeña escala de integración
(SSI), menos de 10 componentes.
Tarjeta de silicio
81
1962 Desarrollo del MOSFET por Fairchild.
1966 Se alcanza la integración a mediana escala (MSI), más de 10
componentes y menos de 100.
Integrado
1969 Se alcanza la integración a gran escala (LSI), más de 100
componentes y menos de 1000.
1971 Primer microprocesador (en un circuito integrado todo el
procesador de una computadora), lo realizaron los ingenieros
Ted Hoff y Federico Faggin en Intel y fue el 4004, de 4 bits y 275
transistores.
Intel 4004
82
1975 Se alcanza la integración a muy gran escala (VLSI), más de
1000 componentes.
"Mini" circuito integrado
1999 Se presenta el chip molecular, basado en moléculas de
rotaxano, que harían las funciones de los transistores, si este
proyecto finalmente se lleva a cabo un solo ordenador con un
microprocesador molecular sería más potente que la suma de
todos los ordenadores que existen en la actualidad.
2000 Premio Nobel de Física para Jack Kilby por la invención del
circuito integrado.
83
Maquinas
ABC
Enigma
Altair 8800
Harvard Mark I
Analizador Diferencial
IBM 360
Apple
IBM PC
BINAC
Manchester Mark I
Calculadoras mecánicas
Máquina Algebraica
Colossus
Máquina Analítica
Complex Calculator
Máquina en Diferencias
EDVAC
Máquina de Scheutz
ENIAC
Máquinas de Zuse
UNIVAC
84
ABC (Atanasoff-Berry Computer)
Máquina ABC
Entre 1937 y 1952, John V. Atanasoff diseñó y contruyó dos computadoras
electrónicas digitales, las primeras de la historia y estableciendo las bases electrónicas
de la computadora digital actual.
La primera fue un prototipo construido en 1939 para poner a prueba las ideas de
Atanasoff. La segunda fue el Atanasoff-Berry Computer (ABC). Berry era Clifford E.
Berry, un discípulo de Atanasoff y colaborador desde 1939 hasta 1942.
John V. Atanasoff
Clifford E. Berry
El ABC no se puede considerar el primer ordenador electrónico digital ya que no era
de propósito general, sino tenía una tarea muy específica: la resolución de sistemas
de ecuaciones lineales.
El camino hasta la construcción del ABC fue largo. Se inició cuando Atanasoff
realizaba su doctorado en física por la Universidad de Wisconsin, a finales de los años
veinte, donde se dio cuenta de la necesidad de automatizar los cálculos.
Atanasoff fue pionero por muchas razones. En el ABC la función de memoria (el
almacenamiento de datos) era independiente de la función de cálculo, y esta última
función se realizaba de manera digital y no analógica, esto es que para realizar las
85
funciones de control y de cálculo aritmético usaba conmutadores electrónicos en vez
de mecánicos, siendo el primero en realizarlo de esta manera. El ABC manipulaba
números binarios, y para almacenarlos utilizaba condensadores (en un principio por
cuestiones económicas), esto representó un problema ya que los condensadores se
descargaban de forma natural perdiendo así los datos que guardaban. Atanasoff
ingenió la solución: un circuito de refresco.
Pero quizá uno de sus mayores logros conseguidos en el ABC fue el desarrollo del
circuito lógico sumador-restador al que denominaba "caja negra" que realizaba sumas
o restas por medio de las reglas lógicas, la caja negra estaba compuesta por válvulas
termoiónicas. Tanto la entrada como la salida se efectuaba a través de tarjetas
perforadas. La máquina tenía una precisión mayor que la mayoría de sus hermanas de
la época como el Analizador Diferencial de Bush.
Con el inicio de la Segunda Guerra Mundial, el proyecto se paralizó en 1942, no
llegando a estar en pleno funcionamiento. Pero a pesar de ello el ABC tuvo una gran
influencia en el desarrollo de las computadoras.
El primer ordenador electrónico de propósito general, el ENIAC, tiene partes
basadas en el ABC, ya que John Mauchly, unos de sus creadores, estuvo visitando a
Atanasoff mientras construía el ABC en 1941, y conoció así los detalles de la máquina.
Sin embargo Mauchly siempre negó que las ideas de Atanasoff le influyeran a la hora
de construir el ENIAC.
86
Altair 8800
Construida por MITS (Micro
Instrumentation and Telemetry
Systems). La Altair 8800
apareció en la portada de la
edición de diciembre de 1975
de Popular Electronics, y en
menos de dos meses la
pequeña
compañía
MITS
manejaba miles de pedidos.
La computadora se vendía en forma de kit y requería trabajo y destreza para
armarla. Compuesta por microprocesador Intel 8080 con 256 bytes de memoria RAM.
Los usuarios programaban en lenguaje binario mediante interruptores en el panel
frontal. La salida se podía leer, en binario, en los LED's. No había ningún software
disponible: los usuarios tenían que escribir el suyo. Por eso es considerada la primera
computadora personal.
87
Analizador Diferencial
El analizador diferencial
fue
una
calculadora
analógica, construida entre
1925 y 1931 en el MIT
(Instituto Tecnológico de
Massachussets) bajo la
dirección del ingeniero
electromecánico Vannevar
Bush.
Analizador diferencial de 1931
La máquina se fundamentaba en integradores de ruleta, estaba compuesta por
amplificadores mecánicos, constituido cada uno de ellos por un disco de cristal y una
rueda metálica, pudiendo el conjunto efectuar rotaciones gracias a motores eléctricos.
Se construyeron varios modelos de la máquina, incluyendo de doce a dieciocho
integradores de ruleta, que se podían acoplar unos a otros mediante trenes de
engranaje, que representaban los coeficientes de una ecuación integral o diferencial;
obteniendo así un sistema mecánico y que obedece rigurosamente a la ecuación
materializada por los integradores y los trenes de engranaje.
Esta máquina, capaz de resolver ecuaciones diferenciales de hasta dieciocho
variables, fue concebida para la resolución de problemas de redes eléctricas.
Analizador diferencial
El éxito de la máquina fue tal que en 1935 el equipo de la MIT se enfrascó en el
desarrollo de una máquina más potente, que empezó a funcionar en 1942 y que
estuvo en secreto durante la Segunda Guerra Mundial ya que se utilizaba para el
cálculo de tablas de tiro para la Marina de los EE.UU, y que comprendía problemas
tan complejos como la integración de las ecuaciones balísticas para las trayectorias
de proyectiles. Al principio la Marina tenía grupos de empleados que realizaban los
cálculos usando calculadoras de mesa (calculadoras mecánicas) tardando
aproximadamente 20 horas para el cálculo de una sola trayectoria, con el uso del
analizador diferencial se tardaba entre 15 y 30 minutos.
88
Bush junto al analizador diferencial
Este segundo Analizador pesaba unas 200 toneladas, constaba de 2000 tubos
electrónicos, varios miles de relés electromecánicos, 150 motores y cerca de 320
kilometros de cable.
89
Computadoras de Apple
Steve Jobs y Steve Wozniac, dos
ingenieros, comenzaron en 1976 a gestar
en un garage lo que se convirtió años
después en unas de las compañías más
importantes de informática del siglo XX.
Creadores de Apple
Logo original de Apple
En dicho año construyeron su primer ordenador el Apple del cual consiguieron
vender unas 50 unidades. Y en dicho año fundaron ya la Apple Computer, Inc.
Primer Apple (1976)
Tarjeta del primer Apple
Primer Apple por dentro
El computador por el cual Jobs y Wozniac son unos de los pioneros de la industria
informática fue el Apple II, que considerado (junto con el Altair 8800) el primer
ordenador personal. El Apple II fue presentado en 1977, con una gran simplicidad de
manejo y con un precio muy asequible. Compuesto por un microprocesador Rockwell
6502, 48 Kb de memoria RAM (que podían ser ampliada hasta 64 Kb), y permitía a
los usuarios crear programas en el lenguaje de moda de aquellos años, el Basic. La
familia Apple II llegó a contar con trece versiones, la última fue Apple IIe, una de las
más populares de Apple, estuvo en el mercado durante 10 años (del 1983 al 1993).
De la familia Apple II se vendieron un total de 1200000 unidades.
90
Apple IIe
A pesar de todo los Apple II se quedaron por debajo de los PC de IBM, por lo que
Apple Computer sacó al mercado los Macintosh, una nueva generación de
ordenadores, con un enfoque totalmente distinto al que había; los Mac (así es como
se les conocen popularmente) en lugar de usar comando de texto para indicarle las
ordenes al computador, usaban un sistema de imágenes gráficas, permitiendo así que
los recursos del ordenador (archivos, discos, impresoras,...) se representaran
mediante iconos gráficos. El sistema se estandarizó incluyendo otros interfaces de
usuario, como los menús desplegables, las ventanas, etc. Los Mac fueron también de
los primeros computadores que utilizaban ratón, y el primero en incorporar la unidad
de discos de 3.5 pulgadas y 400 Kb de capacidad que acababan de crear la
compañía Sony. El interface del Mac tuvo un efecto importante en la industria de la
informática, lo que hizo que se generalizara y que sea y algo habitual hoy en día.
Macintosh 128K
91
BINAC
(Binary Automatic Computer)
En 1947 se firmó un contrato por
el cual la compañía de John
Mauchly y John Presper Eckert
construiría una computadora para
la Northrop Aircraft Company , que
estaba desarrollando un misil
secreto de largo alcance llamado
Snark (la máquina se entregó en
1949). La Northrop quería una
computadora
"pequeña"
que
pudiera transportarse en un avión BINAC
para poder guiar la trayectoria del
misil.
Las especificaciones que deseaban eran todo un reto para la técnica de la época:
·
Debía
tener
un
volumen
de
menos
de
0.60
m3.
·
Debía
pesar
como
mucho
318
kilogramos.
· Debía operar con 117 voltios.
En un principio para Mauchly y Eckert esta computadora era un modelo
experimental, ya que su verdadero objetivo era el desarrollo de otra computadora
más pequeña.
Memoria de la BINAC
Una de las características de la BINAC era que estaba formada por dos
procesadores. Todas las instrucciones se ejecutaban por separado en ambos
procesadores, luego se comparaban los resultados obtenidos, si eran iguales se
continuaba con la ejecución de la siguiente instrucción, si en cambio eran distintos se
paraba la ejecución del programa. Los procesadores medían 1.5 x 1.2 x 0.3 metros,
estaban compuestos por 700 bulbos cada uno, y tenían una memoria cuya capacidad
92
era de 512 palabras de 31 bits cada una.
La BINAC podía realizar 3500 sumas o restas por segundo, y 1000 multiplicaciones
o divisiones por segundo. El reloj interno tenía una frecuencia de 1 MHz. Otro detalle
importante es que fue la primera computadora en utilizar cintas magnéticas como
memoria secundaria, y para ello desarrollaron un dispositivo denominado convertidor
para la lectura/escritura en las cintas, que se utilizó posteriormente en la UNIVAC.
93
Hasta el siglo XIX no se empezaron a construir calculadoras mecánicas "en
serie", ya que aunque los conceptos estaban ya establecidos, la tecnología
anterior no podía llevarlos a la práctica.
Principalmente se construyeron máquinas siguiendo o bien el sistema del
cilindro de Leibniz, o bien el sistema de la rueda de Odhner o el sistema
ingeniado por Léon Bollée, todos ellos sistemas mecánicos.
Calculadoras
basadas
en
el
cilindro
de
Leibniz
Calculadoras
basadas
en
la
rueda
de
Odhner
Calculadora
basada
en
el
sistema
Calculadoras de ninguno de los sistemas básicos
94
de
Léon
Bollée
Calculadoras del sistema de Leibniz
El aritmómetro de Thomas, de Colmar: es la primera máquina de calcular
fabricada industrialmente. El primer modelo apareció en 1822 y se estuvo
fabricando hasta bien entrado el siglo XX.
Fotografía de una variante fabricada por Burkhardt
Las máquinas MADAS: la primera de ellas evolucionó directamente del
aritmómetro de Colmar, y apareció en 1908, pero con un gran avance: era
capaz de realizar las divisiones automáticamente, es decir el usuario solo
debía de encargarse de dar vueltas a la manivela hasta que oyera el timbre
que indicaba fin de operación. MADAS son las iniciales de "Multiplication,
Automatic División, Addition and Substraction". En sucesivas versiones se
consiguió también la multiplicación automática, mucho más compleja de
realizar mecánicamente que la división. Se estuvieron fabricando hasta los
años 50.
MADAS (1908)
95
MADAS BTG-20 (1955). Este modelo tiene
una gran precisión y era muy cara en su
tiempo. Tiene multiplicación y división
automática, así como la capacidad de
realizar multiplicaciones encadenadas y
memoria acumulativa
CURTA: esta máquina tiene una historia particular, su diseño fue
realizado por Curt Herzstark en un campo de concentración nazi. Es la
última máquina mecánica manual, fue fabricada en 1948. En su época fue
revolucionaria por su pequeño tamaño, es casi una pieza de relojería de
precisión con unos costes de fabricación muy elevados, y por lo tanto unos
precios de mercado muy altos.
CURTA Mod. I y II (1948)
96
Calculadoras del sistema de Odhner
97
Original Odhner: Willgodt T. Odhner (inventor del sistema de la rueda de
Odhner en 1874) comenzó la fabricación a gran escala de las máquinas en
1886, en una fábrica especialmente construida en San Petersburgo (Rusia),
que fue trasladada a Goteborg (Suecia) a causa de la revolución rusa,
obteniendo un gran éxito en los paises nórdicos.
Original Odhner Mod. 21 (1930)
Original Odhner 227 (1965)
Brunsviga: En 1892 la firma Grimme, Natalis and Co. compró la patente
del sistema Odhner y comenzó a fabricar máquinas de este sistema en
Alemania incorporando mejoras.
Brunsviga Mod. A (1892)
98
Brunsviga 16 (1940) Máquina portátil de sistema
mixto (aprovecha particularidades de la rueda
de Odhner y del cilindro de Leibniz)
Marchant: Fabricadas por Marchant Calculating Machine Co. Las
primeras máquinas eran del sistema Odhner puro, pero evolucionaron
añadiéndoles un mecanismo de teclado completo dando lugar a máquinas
con un aspecto "raro" pero muy rápidas y efectivas en su funcionamiento.
Marchant Standard B (1911)
Marchant Mod. K-C (1925) Máquinas ya con
teclado completo, este modelo incorpora un
motor, con multiplicación semiautomática y la
división automática.
99
Calculadora del sistema de Bollée
Millonaria: Máquina diseñada por Otto Steiger y fabricada por Hans W.
Egli. Poseía una asombrosa velocidad al realizar multiplicaciones y
divisiones, ya que no las realiza mediante sumas sucesivas y restas
sucesivas, por lo que con un solo giro de manivela realizaba la operación.
Se fabricaron menos de 5000 ejemplares.
Millionaire (1892)
100
Calculadoras de ninguno de los sistemas básicos
Mercedes Euklid: Máquinas diseñadas por Christel Hamann y fabricadas
por Mercedes Office Machine Works. Con un mecanismo interno realmente
muy complicado, estas máquinas disponían de sistemas de autoprotección
para que dichos mecanismos no sufrieran daños si se intentaba realizar una
mala operación.
Mercedes Euklid (1905)
Marchant Figurematic: Los últimos modelos de Marchant, a partir de los
años 40, abandonaron el sistema Odhner y fabricaron máquinas con
mecanismos muchos más complejos, pero con mejores resultados en cuanto
velocidad y robustez. El modelo Figurematic era la máquina más veloz de su
tiempo, y poseía multiplicación y división automática.
Marchant Figurematic (1955)
101
Contómetro de Felt: Dorr E. Felt construyó en sus ratos libre en 1885 una
máquina de calcular con materiales que podía conseguir fácilmente, este
primer contómetro se hizo con una caja de macarrones, los mecanismos
eran de madera y sus muelles eran gomas de oficinas. La "caja de
macarrones", como se la conoció popularmente, se encuentra hoy en día en
el Smithsonian Museum. A este primer contómetro siguieron otros con
mecanismos metálicos, y en 1887 se fundó la sociedad Felt & Tarrant que
fabricó durante más de medio siglo los contómetros. El contómetro era una
máquina puramente sumadora pero bajo unas manos entrenadas era capaz
de realizar multiplicaciones más rápidamente que máquinas con el sistema
de Odhner o Leibniz.
Contómetro de Felt (1885)
102
Colossus
La máquina Colossus fue el secreto mejor
guardado por los ingleses durante la Segunda
Guerra Mundial. Se la considera una de las
primeras computadoras electrónica, aunque
más que una computadora era una "supercalculadora" con un fin muy específico:
descifrar los mensajes de los alemanes
codificados por Enigma.
Colossus
Con el comienzo de la Segunda Guerra Mundial, en 1939, el Gobierno británico
reclutó en Bletchley Park (cerca de Londres) a sus mejores científicos para que
descifraran los mensajes de los alemanes, entre ellos estaba Alan Turing, uno de los
mayores impulsores del proyecto, que se encargó, entre otras cosas, de las funciones
lógicas de la máquina. Otra de las personas importantes en el proyecto fue Thomas
H. Flowers un brillante ingeniero, que rediseñó el contador de la máquina proponiendo
que los datos se almacenaran en tubos de vacío.
La primera Colossus se puso en funcionamiento en 1943, se basaba en la idea de
universalidad de la máquina de Turing, estaba compuesta por más de 1500 tubos de
vacío, la entrada de datos era por medio de tarjetas perforadas y los resultados se
almacenaban en relés temporalmente hasta que se les daba salida a través de una
máquina de escribir. Era totalmente automática, medía 2.25 metros de alto, 3 metros
de largo y 1.20 metros de ancho.
Detalle del Colossus
El resultado que proporcionaba Colossus no era el texto de un mensaje descifrado,
sino un paso intermedio, que luego se tenía que terminar de descifrar a mano. Se
incorporaron mejoras en el sistema con lo que ya si que conseguía que la máquina
descifrara totalmente los mensajes, así nació en 1944 la segunda versión del
Colossus: la Mark II Colossus, que era cinco veces más rápida que su antecesora
operando en paralelo, este modelo estaba compuesto por unos 2400 tubos de vacío.
El proyecto siempre fue ultra-secreto, ni siquiera los propios creadores pudieron ver
todas las partes de la máquina. Nunca hubo manuales ni registros sobre su
funcionamiento, e incluso su montaje se efectuó por etapas, usando personal distinto
103
para que nadie conociera los detalles de la máquina al completo.
Tarjeta perforada con el código que descifraba Colossus
Tuvo un papel muy relevante para el desarrollo de la Guerra, el 1 de junio de 1944
interceptó y descifró un mensaje en el que Hitler y el alto mando alemán indicaban
que esperaban un ataque aliado en Calais. Con el conocimiento de esta información,
el general Eisenhower decidió el 6 de junio dirigir sus tropas a la costa de Normandía,
produciéndose así el famoso desembarco de Normandia. El principio del fin de la
Segunda Guerra Mundial.
Una vez finalizada la Guerra, en 1946 se destruyeron ocho de las diez Colossus
existentes por orden directa del Winston Churchill. De las dos supervivientes una fue
desmantelada en los años 50 y la última fue destruida en 1960 junto con todos sus
diseños
104
Complex Calculator
La Complex Calculator fue
construida por George R. Stibitz en
los laboratorios Bell en 1939. En un
principio construyó un prototipo
basado en relés telefónicos, fue una
máquina sumadora binaria, la
primera
calculadora
binaria
electromecánica, a este prototipo lo
denominó "Model K" (K de kitchen,
cocina en inglés, porque la
Sumadora binaria
construyó en la mesa de la cocina
de su casa). Tras este prototipo
diseñó y construyó dispositivos
multiplicadores y divisores binarios.
Stibitz convenció a los laboratorios Bell de que era capaz de construir una
calculadora que podría realizar operaciones con números complejos, así nació la
Complex Calculator en 1939 (conocida también como Bell Labs Relay Computer
Model I o como Bell Telephone Labs Computer Model I) siendo la primera calculadora
binaria de la historia. La entrada de datos se realizaba a través de teletipos y estaba
compuesta por unos 400 relés telefónicos.
En 1940, durante un congreso de la Sociedad Americana de Matemáticas en
Hanover, Stibitz realizó una espectacular demostración: conectó un teletipo a la
Complex Calculator, que se encontraba en Nueva York, utilizando para ello la red
telegráfica. Se podía encargar una tarea desde Hanover a la máquina, obteniendo la
respuesta en menos de un minuto, siendo la primera vez que se realizaba "un trabajo
a distancia".
105
Stibitz junto al modelo K
A pesar de todo, las posibilidades de la Complex Calculator eran limitadas, por lo
que a esta primera calculadora siguieron otras.
En 1942 se terminó la Relay Interpolator (o Bell Labs Relay Computer Model II) que
incorporaba el cálculo de polinomios de interpolación y usaba como entrada tarjetas
perforadas, pero no se la puede considerar una calculadora de propósito general.
Como tampoco lo fue su sucesora, la Ballistic Computer (o Bell Labs Relay Computer
Model III), acabada en 1944 y que fue usada durante la Segunda Guerra Mundial y
hasta 1958 para el cálculo de tablas de tiro.
La primera calculadora multifunción de esta serie fue la Bell Labs Relay Computer
Model V. Realizada en 1946, compuesta por unos 9000 relés, pesaba unas 10
toneladas y ocupaba 105 m2. Era capaz de realizar una suma de dos números de
siete cifras en 300 milisegundos, su multiplicación en un segundo y su división en 2.2
segundos
106
EDVAC
(Electronic Discrete Variable Automatic Calculator)
En 1946 se llegó a un acuerdo
para que se construyera en la
universidad de Pennsylvania, y
bajo la tutela de John von
Neuman, una gran computadora:
la EDVAC. En un principio se
barajaron diversos diseños, pero
finalmente se decidió por una
computadora con sistema binario,
donde la suma, la resta y la
multiplicación era automática, la
división programable y tenía una
capacidad de 1000 palabras.
EDVAC
107
El EDVAC estaba organizado en seis partes principalmente:
1. Unidad de lectura-grabadora, que era la encargada de la lectura, grabación y
borrado de las cintas magnéticas.
2. Unidad de control, que contenía los botones de operación, las lámparas
indicadoras, los interruptores de control y un osciloscopio para el mantenimiento
de la computadora.
3. Unidad de "reparto", que se encargaba de decodificar las instrucciones, emitía
señales de control hacia el resto de unidades y almacenaba la instrucción que
se debía ejecutar en cada momento.
4. Memoria de alta velocidad, que consistía en dos unidades iguales, cada una
contenía 64 líneas de 8 palabras cada una.
5. Computadora, la unidad que realizaba las operaciones básicas aritméticas. La
unidad aritmética estaba por duplicado, las operaciones se hacían en ambas
unidades y se comparaban los resultados, interrumpiéndose la ejecución si no
eran idénticos.
6. Reloj, que emitía pulsos de reloj a intervalos de 1 µsegundo.
Diseño
del
(pinche en la foto para verla en grande)
EDVAC
El tiempo medio de ejecución por instrucción era:
1.
2.
3.
4.
5.
6.
7.
8.
9.
Suma en 864 µsegundos.
Resta en 864 µsegundos.
Comparación en 696 µsegundos.
Multiplicación y redondeo 2880 µsegundos.
División y redondeo 2928 µsegundos.
Multiplicación exacta en 2928 µsegundos.
División exacta en 2928 µsegundos.
Suma en coma flotante 960 µsegundos.
Resta en coma flotante 960 µsegundos.
El EDVAC pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2.
108
EDVAC
109
ENIAC
(Electronica Numeral Integrator and Computer)
El ENIAC nació en
1943, aunque no se
terminó de construir
hasta 1946, fue un
contrato
entre
el
ejército de EE.UU y
sus
desarrolladores
John Mauchly y John
Presper
Eckert,
llamado "Proyecto PX"
con una subvención de
$500000. En 1944 se
unió al proyecto John
von Neumann.
ENIAC
El ENIAC fue un ordenador electrónico digital con fines generales a gran escala.
Fue en su época la máquina más grande del mundo, compuesto de unas 17468 tubos
de vacío, esto producía un problema ya que la vida media de un tubo era de unas
3000 horas por lo que aproximadamente cada 10 minutos se estropeaba un tubo y no
era nada sencillo buscar un tubo entre 18000, consumiéndose gran cantidad de
tiempo en ello. Tenía dos innovaciones técnicas, la primera es que combina diversos
componentes técnicos (40000 componentes entre tubos, condensadores, resistencias,
interruptores, etc.) e ideas de diseño en un único sistema que era capaz de realizar
5000 sumas y 300 multiplicaciones por segundo. La segunda era la fiabilidad de la
máquina, para resolver el problema de los tubos de vacío se aplicaron unos estrictos
controles de calidad de los componentes utilizados. Salió a la luz pública el 14 de
febrero de 1946, apareciendo en la prensa con calificativos como "cerebro
electrónico", "Einstein mecánico" o "Frankenstein matemático", como por ejemplo en el
diario Newsweek.
110
Articulo en publicado en el Newsweek
sobre el ENIAC
(pinche en la foto para verla en grande)
El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada
acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a gran
velocidad y que podía almacenar sus propios cálculos. El contendido de un
acumulador se visuliazaba externamente a través de unas pequeñas lámparas que
producían un efecto visual muy explotado luego en las películas de ciencia ficción. El
sistema utilizaba números decimales (0 - 9). Para acelerar las operaciones aritméticas
también tenía un multiplicador y un divisor. El multiplicador utilizaba una matriz de
resistencia para ejecutar las multiplicaciones de un dígito y fue diseñado con un
circuito de control adicional para multiplicar sucesivos dígitos. El multiplicador y el
multiplicando estaban almacenados en un acumulador cada uno. Mediante una lectora
de tarjetas perforadas y una perforadora se producía la lectura y escritura de datos.
Mujeres programando el ENIAC
111
El ENIAC era controlado a través de un tren de pulsos electrónicos. Cada unidad
del ENIAC era capaz de generar pulsos electrónicos para que otras unidades
realizaran alguna tarea, por eso los programas para el ENIAC consistían en unir
manualmente los cables de las distintas unidades para que realizaran la secuencia
deseada. Por eso programar el ENIAC era un trabajo arduo y dificultoso. Como las
unidades podían operar simultáneamente el ENIAC era capaz de realizar cálculos en
paralelo.
Había una unidad llamada "unidad cíclica", que producía los pulsos básicos usados
por la máquina. También había tres tablas de funciones y constantes que transmitían
los números y funciones elegidos manualmente a las unidades para realizar las
operaciones. Una suma la realizaba en 0.2 milisegundos (5000 sumas por segundo),
una multiplicación de dos números de 10 dígitos la realizaba en 2.8 milisegundos, y
una división como mucho la realizaba en 24 milisegundos.
Remplazar una válvula de vacío estropeada
suponía encontrarla entre 18000
Nunca pudo funcionar las 24 horas todos los días, y normalmente se ejecutaban
dos veces un mismo cómputo para comprobar los resultados y se ejecutaba
periódicamente cálculos cuyos resultados se conocían previamente para comprobar el
correcto funcionamiento de la máquina. Aunque en un principio el ENIAC estaba
construido para fines militares, al finalizar la Segunda Guerra Mundial se utilizó para
numerosos cálculos de investigaciones científicas. El ENIAC estuvo en funcionamiento
hasta 1955 con mejoras y ampliaciones, y se dice que durante su vida operativa
realizó más cálculos matemáticos que los realizados por toda la humanidad
anteriormente.
Antes de finalizar su construcción, los autores se dieron cuenta de sus limitaciones,
tanto a nivel estructural como a nivel de programación. Por eso en paralelo a su
construcción empezaron a desarrollar las nuevas ideas que dieron lugar al desarrollo
de la estructura lógica que caracteriza a los ordenadores actuales.
112
Enigma
El Enigma fue la máquina
utilizada por el ejército alemán
para codificar sus mensajes
durante al Segunda Guerra
Mundial. Era una especie de
máquina de escribir compuesta
por 3 cilindros por los que rotaba
cada letra. Cuando el 1º cilindro
rotaba 26 veces (las letras del
abecedario) el 2º lo hacía una, y
cuando el 2º lo hacía 26 veces, el Enigma
3º lo hacía una vez.
Aunque se poseyera una Enigma era imposible descifrar un mensajes si no se
conocía la posición inicial de los cilindros. Por eso los aliados construyeron el
Colossus.
Enigma
113
Harvard Mark I (ó IBM ASCC)
El proyecto entre IBM y
Howard
Aiken
para
construir una computadora
se inició en 1939. La Mark I
se terminó en 1943,
presentandose oficialmente
en 1944.
Mark I
En un principio la MARK I se llamaba ASCC (Calculadora Automática de
Secuencias Controladas). Era una máquina automática eléctrica, aunque tenía
componentes electromecánicos; podía realizar 5 operaciones aritméticas: suma,
resta, multiplicación, división y referencia a resultados anteriores.
La Mark I tenía 2.5 metros de alto y 17 metros de largo, pesaba 31500 kg, contenía
800 km de cable aproximadamente y tenía más de 3000000 de conexiones. Se
programaba a través de una cinta de papel en la que había perforadas las
instrucciones codificadas, la salida podía ser tanto por tarjetas perforadas como en
papel ya que a la salida se podía conectar una máquina de escribir eléctrica. La
máquina llamaba la atención porque tenía elegantes cubiertas de cristal muy
llamativas.
Mark I
Una vez programada el ASCC podía ser manejada por personas con un pequeño
conocimiento. Realizaba las multiplicaciones en 6 segundos y las divisiones en 12
segundos.
En 1943, cuando se terminó su construcción, IBM cedió el ASCC a la universidad
114
de Harvard y fue entonces cuando se rebautizó como MARK I.
Mark I
Cuando fue puesta en pleno funcionamiento en 1944 se usó para el cálculo de
tablas de balística durante el final de la Segunda Guerra Mundial. Fue entonces
cuando Aiken contó con la colaboración con un personaje importante en la historia de
la informática: Grace Murray Hopper.
A pesar de que era una computadora más lenta en comparación con las
coexistentes con ella , como la ENIAC, se usó hasta 1959, año en el que se la
desmanteló, dejado partes en la universidad de Harvard y partes en el Instituto
SmithSonian en Washington (EE.UU).
115
IBM 360
Comercializado a partir de 1964, el IBM
360 fue el primero en usar una la palabra
byte para referirse a 8 bits (con cuatro bytes
creaba una palabra de 32-bits). Esta
arquitectura de computación fue la que a
partir de este modelo siguieron todos los
ordenadores de IBM.
IBM 360
El 360, fue la primera en usar microprogramacion, y creo el concepto de
arquitectura de familia. La familia del 360 consistió en 6 computadoras que podían
hacer uso del mismo software y los mismos periféricos. El sistema también hizo
popular la computación remota, con terminales conectadas a un servidor, por medio
de una línea telefónica.
IBM 360
La IBM 360 una de las primeras computadoras comerciales que usó circuitos
integrados, podía realizar tanto análisis numéricos como administración ó
procesamiento de archivos, siendo a partir de él considerada la 3º generación de
ordenadores.
116
IBM PC
Salió al mercado en agosto de 1981 el
primer modelo, el 5150, con un
microprocesador Intel 8088 y con un precio
de $5000. El cliente podía elegir el sistema
operativo entre CP/M por $400 o MS-Dos
(de una empresa por aquel entonces
IBM PC
desconocida: Microsoft) por $100 (por lo
que "obviamente" se implantó más el
sistema operativo de Microsoft).
Este ordenador implantó los estandares de lo que hoy conocemos como
ordenador o pc.
IBM PC
Si comparamos el 5150 con una de las últimas computadoras de IBM, la
NetVista A21:
Modelo
IBM
5150
PC
IBM
NetVista
A21
12
de
Fecha de
24 de julio
agosto de
nacimiento
de 2001
1981
CPU
Intel
Intel 8088
Celeron
4.77MHz
1GHz
Memoria
16K
128MB
expandible expandible
a 64K
a 512MB
Disco duro No tenía
20 GB
CP/M
o Microsoft
Sistema
IBM PC- Windows
Operativo
DOS
98
117
(Microsoft
MS-DOS)
Precio
5000
dólares
(con 64K
de
memoria)
118
599
dólares
(con
monitor de
15
pulgadas)
Manchester Mark I
La Manchester Mark 1 fue
en un principio una máquina
experimental
a
pequeña
escala llamada "the baby",
construida entre 1947 y 1948
en
la
universidad
de
Manchester (Gran Bretaña),
su diseño se pensó para
demostrar el potencial que
tendrían
los
programas
almacenados
en
la
computadora, por eso se Manchester Mark I
considera
la
primera
computadora que funcionaba
con
memoria
RAM.
El
matemático Alan Turing se
incorporó al proyecto en el
año 1948, realizando un
lenguaje de programación
para la computadora.
En 1951, "the baby" fue remplazada por una versión conocida como Ferranti Mark I,
que surgió de la colaboración del equipo de la universidad de Manchester y de los
hermanos Ferranti que tenían una fábrica, la Ferranti Mark I fue de las primeras
computadoras comerciales de la historia.
Algunas de sus características fueron: una memoria principal (RAM) de 256
palabras de 40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en
tubos de vacío; una memoria que almacenaba 3750 palabras; realizaba una operación
estándar, como una suma, en 1.8 milisegundos, en cambio para realizar una
multiplicación era mucho más lento, añadiéndole al tiempo de una operación estándar
0.6 milisegundos por cada bit que tuviera el multiplicador. La entrada era por medio de
un sencillo teclado para almacenar directamente la información al computador; la
salida para las comprobaciones era a través de un visualizador de tubos de rayos
catódicos.
Máquina Algebraica de Torres Quevedo
119
Construida en 1894 por
Leonardo Torres Quevedo,
con la financiación de la Real
Academia
de
Ciencias,
gracias a la presentación de
una
memoria
con
la
descripción de la máquina
que
permitiría
resolver
ecuaciones algebraicas.
Máquina Algebraica de Torres Quevedo
Actualmente se conserva en la ETS de Ingenieros de Caminos de la universidad
Polictécnica de Madrid.
El objetivo de la máquina era la obención de manera continua y automática de
valores de funciones polinómicas. Al tratarse de una máquina analógica, la variable
puede recorrer cualquier valor (y no sólo unos valores discretos prefijados). Por ello,
ante una ecuación polinómica, haciendo girar todas las ruedas representativas de la
incógnita, el resultado final irá dando los valores de la suma de los términos variables,
cuando esta suma coincida con el valor del segundo miembro, la rueda de la incógnita
marcará una raíz.
Esta máquina presenta dos innovaciones importantes respecto a las de su época: el
uso de la escala logarítmica, que permite reducir a sumas la evaluación de monomios
y los "husillos sin fin" inventados por Torres Quevedo.
Husillo sin fin
120
Máquina Analítica
Babbage concibió la máquina
analítica a partir de 1834, cuando
el proyecto de la máquina en
diferencias se paralizó. Mientras
que la máquina en diferencias
necesitaba permanentemente un
operador para su funcionamiento,
la máquina analítica era ya
automática. Y mientras que la
máquina en diferencias tenía un
propósito específico, la máquina
analítica tenía un propósito
general, podía ser "programada"
por el usuario para ejecutar un
repertorio de instrucciones en el
orden deseado.
Parte de la máquina analítica construida
posteriormente por el hijo de Babbage
El diseño de la máquina analítica incluye la mayoría de las partes lógicas de un
ordenador actual: el "almacén", el "taller", el "control", la "entrada" y la "salida". El
"almacén" contiene los datos, contendría 1000 números de 50 dígitos cada uno. La
máquina se programaba a través de tarjetas perforadas. El "control" ejecuta una
secuencia de operaciones indicadas en las tarjetas perforadas. La máquina era capaz
de realizar bucles (repetir una o varias instrucciones el número de veces deseado), y
también era capaz de tomar decisiones dependiendo del resultado de un cálculo
intermedio (ejecutar una sentencia SI...ENTONCES...).
El sueño de Babbage de construir esta máquina no pudo realizarse, lo único que
pudo construir fueron pequeñas partes.
121
Máquina en Diferencias
Fue concebida en 1821 por Charles
Babbage, con el propósito de evaluar
funciones polinómicas. Para el cálculo de
dichas funciones se basa en el método de
diferencias finitas, que elimina tener que
realizar multiplicaciones y divisiones, solo
usa sumas siendo así mecanismos más
sencillos.
Máquina
en
diferencias
modelo 1
Constaba de 25000 partes mecánicas, con un peso de 15 toneladas. Una de las
únicas partes construida de la máquina fue completada en 1832 (fotos). Para el
desarrollo de la máquina Babbage contó con la financiación del gobierno, pero a
pesar de ello el proyecto se detuvo en 1833.
Detalles de la máquina en diferencias
Babbage diseñó un segundo modelo de la máquina en diferencias entre 1847 y
1849, con un diseño más sencillo y con tres veces menos partes que el modelo
anterior, pero sin perder el poder de computación. Este diseño le ayudó para el
desarrollo de la máquina analítica.
122
Diseño
original
de
Babbage
(pinche sobre la foto para verla en grande)
del
segundo
modelo
En 1985 el Museo de Ciencias de Londres ha construido este modelo a partir de la
documentación de Babbage. Está compuesto de 4000 partes mecánicas, y tiene un
peso de 2.6 toneladas.
Reconstrucción de la máquinaen diferencias modelo 2
123
Máquina de diferencias de Scheutz
George
Scheutz,
un
impresor sueco, se basó en
los trabajos realizados por
Charles
Babbage
para
construir una máquina de
diferencias similar a la de
él, pero por el contrario que
la de Babbage, la de
Scheutz
sí
funcionó
Máquina de diferencias
perfectamente.
En 1938 construyó una primera versión junto con su hijo Edward. En 1953
construyeron la versión definitiva, una máquina que podía procesar números de
quince dígitos, y calcular la cuarta diferencia. Esta máquina obtuvo la medalla de oro
en la Exposición Mundial de París en 1955. Después fue vendida al Observatorio
Dudley en Albany (Nueva York) en donde se utilizó para calcular la órbita de Marte.
En la actualidad se encuentra en el museo Smithsonian (Washington).
124
Máquina de diferencias de Scheutz
George
Scheutz,
un
impresor sueco, se basó en
los trabajos realizados por
Charles
Babbage
para
construir una máquina de
diferencias similar a la de
él, pero por el contrario que
la de Babbage, la de
Scheutz
sí
funcionó
Máquina de diferencias
perfectamente.
En 1938 construyó una primera versión junto con su hijo Edward. En 1953
construyeron la versión definitiva, una máquina que podía procesar números de
quince dígitos, y calcular la cuarta diferencia. Esta máquina obtuvo la medalla de oro
en la Exposición Mundial de París en 1955. Después fue vendida al Observatorio
Dudley en Albany (Nueva York) en donde se utilizó para calcular la órbita de Marte.
En la actualidad se encuentra en el museo Smithsonian (Washington).
125
Máquinas de Zuse
Konrad Zuse construyó
numerosas computadoras
a lo largo de su vida, en un
principio más bien como
investigador,
aunque
finalmente se dedicó a ello
plenamente. A continuación
hablaremos
de
sus
primeras máquinas: la Z1,
la Z2, la Z3, y la Z4.
Z1
La Z1 es considerada en la actualidad una de las primeras computadoras
programables del mundo. Se terminó de construir en 1938 y fue financiada
completamente con dinero privado (principalmente de familiares y amigos de Zuse,
incluido él mismo). Esta computadora fue destruida en un bombardeo en Berlín
durante la Segunda Guerra Mundial, Zuse decidió reconstruirla en 1986 acabándola
en 1989, estando dicha reconstrucción en el Museo Técnico Alemán en Berlín. La Z1
fue construida en el apartamento de sus padres, como puede observarse en la
fotografía.
Reconstrucción de la Z1 y Zuse junto a ella
La Z1 tiene todas las partes de una computadora moderna: unidad de control,
memoria, lógica en coma flotante, ... a pesar de ser una máquina completamente
mecánica. Realizaba una multiplicación en 5 segundos aproximadamente, tenía un
126
teclado decimal para insertar las operaciones, una memoria de 64 celdas de 22 bit, y
pesaba unos 500 kilogramos.
La Z2 surgió al ver la dificultades de una máquina mecánica, por eso rediseñó la Z1
añadiéndole relés telefónicos. Así, la unidad numérica de la Z2 tenía 800 relés,
aunque todavía mantenía componentes mecánicos. La Z2 fue finalizada en 1939, y al
acabar Zuse ya estaba pensando en la siguiente computadora la Z3 para que fuera
completamente realizada con relés.
La Z2 también fue destruida durante un bombardeo en 1940. Las características
técnicas de la Z2 se asemejaban a la de la Z1 en cuanto al poder de cálculo. La Z2
fue para Zuse un modelo experimental para probar el poder de la utilización de los
relés telefónicos.
Para Zuse, la Z3 era la "primera computadora funcional del mundo controlada por
programas", otras máquinas equiparables a la Z3 fueron la Mark II, o la ENIAC que
fueron presentadas en 1943 o años posteriores, mientras que la Z3 fue presentada en
1941.
La Z3 fue construida en su totalidad con relés telefónicos. No existen fotos de la
original Z3, las fotografías que se muestran son de una reconstrucción realizada por
Zuse entre 1960 y 1964. Esta reconstrucción estuvo en la Exposición Universal de
Montreal en 1967, y en la actualidad se encuentra en el Museo Técnico Alemán de
Berlín.
Z3
La Z3 estaba formada por partes tales como la unidad de control, la memoria, la
unidad aritmética, y los dispositivos de entrada y salida. Estaba compuesta por unos
2200 relés, 600 para la unidad numérica y 1600 para la unidad de almacenamiento.
Realizaba una suma en 0.7 segundos, y una multiplicación o una división en 3
segundos. Pesaba unos 1000 kilogramos y como sus hermanas fue destruida durante
un bombardeo en 1944.
127
Z3
La Z4 fue terminada en 1944, aunque en años posteriores fue retocada
añadiéndole una unidad de lectura de tarjetas perforadas. La Z4 fue utilizada por
numerosas instituciones hasta 1959, en la actualidad se encuentra en el museo
alemán de Munich.
Z4
La Z4 tenía una unidad para producir tarjetas perforadas con instrucciones para la
propia Z4, con lo que no era demasiado complicado programarla. Y así también era
posible realizar copias de los programas para poder hacer correcciones.
Animación de Z4
La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados
cálculos científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba
compuesta aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por
segundo y tenía una memoria de 500 palabras de 32 bit. Pesaba unos 1000
kilogramos. La entrada de datos era o a través de un teclado decimal o a través de
tarjetas perforadas, y la salida era por una máquina de escribir.
128
UNIVAC
(Universal Automatic Computer)
El UNIVAC fue la primera
computadora diseñada y
construida para un propósito
no militar. Fue desarrollada
para la Oficina del Censo en
1951 por los ingenieros
John Mauchly y John
Presper
Eckert,
que
empezaron a diseñarla y
construirla en 1946. Aunque
también se vendieron para
agencias del gobierno de
EE.UU
y
compañias
privadas,
en
total
se
vendieron 46 unidades. UNIVAC
Cada
una
de
las
computadoras valían de
$1000000 a $1500000,
cifras
que
actualizadas
serían
del
orden
de
$6500000 a $9000000.
Era una computadora que pesaba 16000 libras (7257 kg. aproximadamente),
estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por
segundo. Era una computadora que procesaba los dígitos en serie. Podía hacer
sumas de dos números de diez dígitos cada uno, unas 100000 por segundo.
129
Organigrama
del
(pinchen en la imagen para verla ampliada)
UNIVAC
Funcionaba con un reloj interno con una frecuencia de 2.25 MHz, tenía memorias
de mercurio. Estas memorias no permitían el acceso inmediato a los datos, pero
tenían más fiabilidad que los tubos de rayos catódicos, que son los que se usaban
normalmente.
Eckert y el UNIVAC
Mauchly y el UNIVAC
El UNIVAC realizaba una suma en 120 µseg., una multiplicación en 1800 µseg. y
una división en 3600 µseg. La entrada consistía en una cinta magnética con una
velocidad de 12800 caracteres por segundo, tenía una tarjeta que convertía la
información desde tarjetas perforadas a cintas magnéticas con una velocidad de 200
caracteres por segundo. La salida podía ser por cinta magnética a 12800 caracteres
por segundo, o por una impresora con una velocidad de 600 línea por minuto.
130
Distintas vistas del UNIVAC
Panel de control del UNIVAC
El UNIVAC fue utilizada para predecir los resultados de las elecciones
presidenciales de EE.UU entre Eisenhower y Stevenson, la computadora acertó en su
pronóstico, pero la prensa lo atribuyó que formaba parte de la campaña política. El
original UNIVAC se encuentra en el museo Smithsonian.
Anuncion del UNIVAC
(pinche en la foto para verla en grande)
131
REFERENCIAS BIBLIOGRAFICAS
Para más información puede consultar las siguientes páginas web:

















http://www.computerhistory.org
http://www.webcom.com/calc/
http://ei.cs.vt.edu/~history/
http://www-etsi2.ugr.es/alumnos/mlii/index.html
http://www.cobolware.com/Hopper/
http://aldeamac.com.ar/secciones/miscelanea/historia/
http://www.museodeinformatica.org
http://www.zuse.org
http://www.comsto.org/lg/indexlg.htm
http://www.pla.net.py/goossen/
http://www.cbi.umn.edu/
http://www.math.uwaterloo.ca/~shallit/Courses/134/history.html
http://www.eingang.org/Lecture/index.html
http://genio.mat.ucm.es/historia.comp/historia.html
http://www.elpais.es/multimedia/economia/hoja1.html
http://www.iespana.es/canalhanoi/articulos/cronologia.htm
http://www-groups.dcs.st-and.ac.uk/~history/BiogIndex.html
NOTA: Algunas de estas páginas web son en inglés.
Bibliografía:









Breton, P.: "Historia y crítica de la informática". Ediciones Cátedra, 1989.
Goldstine, H.: "The computer from Pascal to von Neumann". Princenton Univ.
Press, 1972.
Huelamo, E.: Catálogo "Recuerdos del cálculo mecánico". Exposición de
máquinas de calcular. U.P.M., Octubre 2000.
Ifrah, G.: "Historia universal de las cifras". Espasa forum, 1997.
Ikonikoff, R.: "La conciencia y la máquina". Galaxia Gutenberg, 1999.
Merguin, J.: "Historie des instruments et machins à calculer". Hernann Ed.,
1994.
Metropolis, N.; Howlett, J. y Rota, G.C.: "A history of computing in the twentieth
century". Academic Press, 1980.
Pylyshyn, Z.W.: "Perspectivas de la revolución de las computadoras". Alianza,
1970.
Torres Quevedo, L.: "Memoria sobre Máquinas Algebraicas". Real Academia de
Ciencias Exactas Físicas y Naturales, 1895.
132
133