Download Apuntes - S.A.B.I.A.

Document related concepts
no text concepts found
Transcript
Tema 1. Conceptos Generales e Historia
1.1 Definiciones
Informática es la ciencia del tratamiento automático (por realizarse mediante
máquinas - hoy en día electrónicas -) y racional (está controlado mediante órdenes que
siguen el razonamiento humano) de la información.
Este término apareció en Francia en 1962 uniendo las palabras 'information' y
'automatique'. En inglés, Computer Science.
Una computadora u ordenador es una máquina capaz de aceptar unos datos de
entrada, efectuar con ellos operaciones lógicas y aritméticas y proporcionar la
información resultante a través de un medio de salida; todo ello sin intervención de un
operador humano y bajo el control de un programa de instrucciones previamente
almacenado en la propia computadora. Se entiende por operaciones lógicas funciones
tales como comparar, seleccionar o copiar símbolos, ya sean numéricos o no
numéricos. Una computadora puede considerarse como un sistema cuyas salidas
dependen de sus entradas, formadas por datos e instrucciones.
Una calculadora es una máquina capaza de efectuar operaciones aritméticas bajo el
control directo del usuario. Es decir, calculadora no es sinónimo de computadora, ya
que no enlaza automáticamente las operaciones que realiza, objetivo que se cubre con
el programa almace nado en el caso de la computadora. La calculadora tampoco realiza
operaciones de tipo lógico y sólo actúa con datos numéricos.
Un ordenador es programable, es decir, lo que hace el ordenador depende del
programa que utilice. Un programa es una lista de instrucciones que le indica al
ordenador lo que debe hacer. El hardware de un ordenador (la parte física, la máquina
y sus componentes) está diseñado primando la flexibilidad. Al utilizar programas
específicos, el hardware se transforma en una herramienta con propósito específico.
Esto es lo que hace que el uso del ordenador resulte interesante tanto para
matemáticos, físicos, científicos de todas las áreas, como para productores de
televisión, diseñadores gráficos, músicos, poetas, historiadores, etc.
Independientemente del programa que utilice, un ordenador realiza cuatro funciones
básicas:
Entrada: El ordenador acepta datos introducidos por medio de un dispositivo de
entrada, como el teclado.
Tema 1: Conceptos Generales.
Página 1
Procesamiento: El ordenador realiza operaciones con los datos para transformarlos
de alguna manera.
Salida: El ordenador produce un resultado en un dispositivo de salida, como una
impresora o un monitor, que muestra los resultados de las operaciones realizadas con
los datos.
Almacenamiento: El ordenador almacena los resultados de las operaciones para su
uso posterior.
Los datos son conjuntos de símbolos utilizados para expresar o representar un valor
numérico, un hecho, un objeto o una idea; en la forma adecuada para poder ser
tratado.
Las salidas que genera un programa también son datos, y pueden ser utilizados como
entrada para otros programas. En general, en informática, la palabra dato se utiliza
como contraposición a instrucción. Datos e instrucciones son los dos tipos de
información utilizada por la computadora: las instrucciones indican a la máquina qué
es lo que tiene que hacer, y los datos son los elementos sobre los que actúa o que
genera el programa.
La informática se ocupa entre otros de los siguientes temas:
•
El desarrollo de nuevas máquinas (computadoras y periféricos)
•
El desarrollo de nuevos métodos de trabajo.
•
El desarrollo de nuevas aplicaciones informáticas.
1.2 Codificación de la información
En
informática
es
frecuente
codificar
la
información.
Codificación
es
una
transformación que representa los elementos de un conjunto mediante los de otro, de
forma tal que a cada elemento del primer conjunto le corresponda un elemento
distinto del segundo.
Con los códigos se puede comprimir y estructurar la información. La identificación de
un coche por su matrícula es más corto que hacerlo, por ejemplo, por el nombre del
propietario, marca, color y fecha de compra.
En el interior de las computadoras la información se almacena y se transfiere de un
sitio a otro según un código que utiliza sólo dos valores (es decir, un código binario),
representados por 1 y 0. En la entrada y salida de la computadora se efectúan
Tema 1: Conceptos Generales.
Página 2
automáticamente los cambios de código oportunos para que en su exterior la
información sea directamente comprendida por los usuarios.
La unidad más elemental de información es un valor binario, conocido como bit.
Procede de la contracción de binary digit. Un bit es una posición o variable que toma
el valor 0 ó 1. La capacidad mínima de almacenamiento de información en el interior
de una computadora es el bi t.
De esta manera, la capacidad de almacenamiento se podría medir en bits, pero al ser
una unidad tan pequeña, se suelen utilizar múltiplos del bit:
1 Byte = 8 bits (son los bits que hacen falta para representar un carácter).
1 KiloByte (KB) = 210 bytes = 1024 bytes
1 MegaByte (MB) = 210 KB = 220 bytes
1 GigaByte (GB) = 210 MB = 230 bytes
1 TeraByte (TB) = 210 GB = 240 bytes
1.3 Elementos constitutivos de una computadora
La parte física, también denominada hardware, formada por:
•
Unidad Central de Proceso
•
Unidades de memoria auxiliar
•
Unidades de entrada
•
Unidades de salida
La parte lógica, también denominada software (programas), formada por:
•
Datos
•
Aplicaciones
•
Sistema Operativo (programas para la gestión de recursos)
Las personas, estas se dividen en dos grandes grupos.
•
•
El personal informático:
o
El Personal de dirección (Director, Jefe del área de desarrollo, Jefe del
área de explotación)
o
El Personal de análisis y programación (Jefe de proyectos, Analistas,
Programadores)
o
El Personal de explotación (Operadores)
Los usuarios
Tema 1: Conceptos Generales.
Página 3
1.4 Componentes de una computadora
Una Computadora procesa o elabora los datos que se le suministran, puede por
ejemplo realizar el promedio de unos datos introducidos previamente, realizar una
gráfica con esos datos o suministrar un listado ordenado de mayor a menor de dichos
datos.
Para realizar estos procesos, la computadora debe disponer de recursos para
almacenar la información mientras ésta se elabora, memoria, y asimismo de los
dispositivos que permitan tanto su introducción, como ofrecerla, ya elaborada, a los
usuarios. Estos últimos dispositivos reciben el nombre de periféricos.
Esquemáticamente una computadora se compone de:
Unidad de Entrada: Permiten la introducción de información en la computadora
(teclado, escáner, lectores de tarjetas o códigos de barras, pantalla táctil, etc.)
Unidad de Almacenamiento o Memoria: Dispositivos donde se almacenan los datos
y los programas para procesarlos.
Existen dos tipos: Memoria Principal, que a su vez se subdivide en RAM y ROM , en
la RAM se cargan los datos necesarios para los programas que están en ejecución, esa
memoria se vacía al apagar el ordenador; en la ROM figuran los datos básicos para
que el ordenador pueda arrancar, en ella no se puede escribi r ni borrar lo que hay.
Memoria Secundaria, donde se puede almacenar cualquier tipo de información, los
datos permanecen aunque se apague el ordenador y se puede escribir y borrar en ella
(Discos duros (HD), CD-ROM, disquetes (FD), Unidades de cinta, etc.).
Tema 1: Conceptos Generales.
Página 4
Unidad Aritmético/Lógica: Es la parte encargada de procesar los datos, se conoce
también como ALU (Arithmetic-Logic Unit). Las operaciones que realiza son de tipo
aritmético: suma, resta, multiplicación y división; y de tipo lógico: igual, mayor que o
menor que.
Unidad de Control: Dirige la ejecución del programa y controla tanto el movimiento
entre memoria y ALU, como las señales que circulan entre la CPU y los Periféricos.
Unidad de Salida: Presentan al usuario los datos ya elaborados que se encuentran en
la memoria de la computadora (pantalla, impresoras, etc.)
La Unidad de Control con la Unidad Aritmético/Lógica y la Memoria Principal forman
la Unidad Central de Procesos (CPU).
Las Unidades de Entrada y de Salida son los denominados Periféricos.
1.5 Perspectiva histórica
1.5.1 Los primeros ordenadores
La idea de la computación es tan antigua como la civilización. Al fin y al cabo, los
ordenadores son sólo complejos aparatos para contar.
El primer aparato de computación podría haber sido tan sencillo como un conjunto de
piedras utilizadas para representar medidas de trigo o rebaños de animales. El cálculo
del número total de animales de dos rebaños o el trueque de ganado por trigo se
podría representar con piedras.
Cuando la gente siguió un conjunto estándar de procedimientos para realizar los
cálculos con estas piedras, crearon un aparato de cálculo digital, un predecesor del
ordenador.
1.5.2 Calculadoras
Las calculadoras aparecieron ante la necesidad del hombre por realizar cálculos
básicos, que le permitían un mayor control sobre sus posesiones y sobre diferentes
aspectos de la realidad que le rodeaba.
La calculadora más antigua son las manos, a través de las cuales el hombre realiza
sus primeros cálculos. Pronto comienza a utilizar objetos de la naturaleza como trozos
de madera y pequeñas piedras, en latín Calculus, para realizar cálculos mas
complicados. Pero para operaciones con números grandes este método es limitado.
Tema 1: Conceptos Generales.
Página 5
El paso siguiente es asignar un valor simbólico al objeto, hasta ahora el valor de un
objeto era la unidad, a partir de ahora un objeto puede significar 5, 10 o cualquier
cantidad que se le asigne. Esto hace que aparezcan los primeros objetos creados con
el único propósito de realizar cálculos.
El ábaco es un ejemplo de estos diseños, se compone de un marco de madera en el
que hay tendidos una serie de hilos o varillas. En cada uno de ellos se insertan una
serie de cuentas que permiten almacenar cantidades y realizar operaciones básicas de
suma y resta. Para ver un número, se bajan las cuentas de manera que cada conjunto
de cuentas representa un dígito. Para resolver un problema matemático, sólo tiene que
seguir un conjunto de instrucciones que le explican cuándo y dónde debe mover las
cuentas.
Ábaco
Otra máquina de computación, "los huesos de Napier", fue inventada a principios del
siglo XVII por John Napier, matemático escocés inventor de los logaritmos. Los
"huesos" eran tiras de marfil con números escritos en ellas. Cuando se disponían
estas tiras de manera correcta, la persona que las utilizaba podía leer los números en
las columnas adyacentes para encontrar respuesta con gran rapidez multiplicaciones
y raíces cuadrada y cúbica.
Tema 1: Conceptos Generales.
Página 6
Los huesos de Napier
1.5.3 Calculadoras mecánicas
Si se pueden resolver problemas siguiendo un conjunto de reglas sencillas, como con
el ábaco, se puede crear una máquina que calcule las respuestas automáticamente.
Durante los siglos XVI al XIX, los europe os crearon varias máquinas de cálculo que
utilizaban la tecnología existente, especialmente los engranajes y palancas de los
mecanismos de relojería.
Parece ser que en 1623, un alemán, Schickard, diseñó la primera calculadora que
sumaba y restaba. Tuvo tan mala suerte que el modelo fue destruido en un incendio.
Es considerada como la primera calculadora mecánica.
¨Reloj de Cálculo¨ de Wilhelm Schickard
La calculadora que alcanzó mayor difusión fue inventada en Francia en 1642 por
Blaise Pascal a la edad de 19 años. Más tarde, Pascal llegaría a ser uno de los grandes
filósofos y matemáticos europeos. Era hijo de un comisario de impuestos y trabajaba
frecuentemente en la oficina de su padre. El trabajo debía resultarle muy aburrido a
Pascal, porque se le ocurrió crear una máquina que les ahorrara a personas como su
Tema 1: Conceptos Generales.
Página 7
padre la pesadez de hacer sumas una y otra vez. La solución de Pascal fue la
Pascalina, una calculadora mecánica que funcionaba con engranajes y palancas de
relojería. La base de las operaciones consistía en contar los dientes de un engranaje,
al igual que un cuentakilómetros. Para sumar y restar, la Pascalina giraba ruedas
para registrar los valores y utilizaba una palanca para realizar la operación de
traspaso de una rueda a otra.
Máquina de Pascal
Aunque las empresas no aceptaron la Pascalina, Pascal fue el primero de los
innovadores de la computación que se adelantó a su tiempo. En reconocimiento a su
contribución al campo de la computación, se ha bautizado un lenguaje informático
con su nombre. Este lenguaje, el Pascal, se suele utilizar para enseñar programación a
los futuros informáticos.
El siguiente adelanto significativo en las máquinas de cálculo se lo debemos a
Gottfried Wilhelm von Leibniz en 1673.
Leibniz es más conocido por su trabajo con
Sir Isaac Newton al desarrollar la parte de
las matemáticas conocida como cálculo.
Leibniz inventó una calculadora que podía
sumar, restar, multiplicar y dividir con
exactitud. La calculadora también realizaba
la
función
de
raíz
cuadrada,
pero
no
siempre correctamente.
Tema 1: Conceptos Generales.
Página 8
Calculadora de Leibniz
En 1678 Grillet de Roven, relojero de la Corte Francesa idea una máquina sumadora
que combina el mecanismo de ruedas de Pascal con el sistema de Huesos de Napier.
Máquina sumadora de Grillet de Roven
La primera calculadora con posibilidades comerciales fue el "aritmómetro". La
desarrolló el francés Charles Xavier Thomas, conocido como Carlos de Colmar, y ganó
una medalla de oro en la Exposición Internacional de Londres en 1862. La máquina
podía sumar, restar, multiplicar, dividir y calcular raíces cuadradas con precisión.
Aritmómetro de Charles Xavier Thomas
Tema 1: Conceptos Generales.
Página 9
Las máquinas vistas hasta este momento no eran automáticas ya que requerían la
intervención humana durante el proceso de cálculo.
1.5.4 Representación de los datos: de los telares a las máquinas
comerciales
A medida que los inventores trabajaban para mejorar las calculadoras mecánicas,
comprendieron que necesitaban una manera mejor de introducir datos que la de
ajustar discos de engranajes de relojería. Los medios de esta mejora ya se habían
creado en un lugar un poco inverosímil: los telares de Francia.
El telar de Jacquard
A principios del siglo XIX, un tejedor francés llamado Joseph Marie Jacquard
desarrolló un telar que podía programarse. El telar utilizaba grandes tarjetas con
agujeros perforados para controlar automáticamente el diseño que se tejía en la tela.
El resultado era una tela rica y tupida con diseños florales o geométricos repetidos.
Antes de la invención de este telar, sólo los muy ricos podían permitirse el lujo de
comprar telas con diseños elaborados. Los diseños de Jacquard se convirtieron en un
éxito instantáneo y todavía se producen en la actualidad. El éxito del principio de
Jacquard fue demostrado por 11,000 telares de este tipo, que entraron en funciones
en sólo ocho años. Otros adaptaron las tarjetas perforadas utilizadas en el telar de
Jacquard para que funcionaran como método de entrada informático. Las tarjetas
perforadas se han utilizado para introducir datos y programas hasta hace unos veinte
años.
Tema 1: Conceptos Generales.
Página 10
En 1887 un joven inventor francés de 18 años de edad, León Bollée, realiza la primera
máquina capaz de lograr la multiplicación
directamente
y
no
mediante
sumas
repetitivas. La multiplicadora de León Bollée
gana una medalla de oro en la Exposición
Universal
de
París
de
1899.
De
esta
máquina se produjeron pocos ejemplares
porque el inventor abandonó gradualmente
el proyecto para dedicarse a su pasatiempo
favorito: la construcción de automóviles de
carreras.
Charles Babbage y la primera computadora moderna
Charles Babbage, nacido y criado en Inglaterra a
principios
del
computadora
siglo
XIX,
moderna.
creó
Mientras
la
primera
Babbage
trabajaba en su doctorado, tenía la necesidad de
resolver muchas fórmulas complejas y no podía
hacerlo manualmente en un plazo de tiempo
razonable. Para resolver las ecuaciones, Babbage
comenzó a desarrollar una máquina a vapor a la
que llamó máquina diferencial.
Máquina diferencial de Babbage
Tema 1: Conceptos Generales.
Página 11
Más tarde, Babbage comenzó a planear un aparato más ambicioso, la máquina
analítica. Utilizando el procedimiento de tarjetas perforadas unido al anterior diseño
de ruedas mecánicas, Charles Babbage desarrolló en 1834 la Máquina Analítica. Esta
máquina se proyectó con los tres componentes básicos de un ordenador actual:
•
Una memoria
•
Una unidad de cálculo
•
Una unidad de control de las operaciones a través de tarjetas perforadas.
La máquina estaba diseñada para utilizar unas tarjetas perforadas para introducir los
datos similares a las tarjetas de Jacquard. Este aparato habría sido una computadora
completamente moderna con un ciclo reconocible de Entrada, Procesamiento, Salida y
Almacenamiento.
Desgraciadamente, la tecnología de la época no podía crear las partes necesarias para
completar la máquina analítica.
Babbage trabajó en sus planos durante años con
Augusta Ada Byron, hija del famoso poeta Lord Byron y
de la Condesa de Lovelace. Augusta Ada, una brillante
matemática, contribuyó mucho a los planos de Babbage
y se le puede considerar la primera mujer informática y
programadora
del
mundo.
Existe
un
lenguaje
de
programación bautizado con el nombre de Ada en su
honor.
El final de la historia de Babbage no es muy feliz: se
arruinó intentando construir la máquina analítica, En
1991 se construyó una máquina analítica funcional
según los planos de Babbage que se encuentra en el
Charles Babbage Institute de Minnesota.
A Charles Babbage se le reconoce como "el padre de la informática".
Hollerith y la oficina del censo automatizada
La siguiente figura importante en la historia de la informática fue el Dr. Herman
Hollerith, un estadístico. La constitución de los Estados Unidos exige que se realice un
censo de la población cada diez años, como método de determinar la representación
en el Congreso. A finales del siglo XIX, las técnicas de procesamiento manual eran tan
Tema 1: Conceptos Generales.
Página 12
lentas que los resultados del censo de 1880 tardaron más de siete años en tabularse.
La necesidad de automatizar el censo era clara.
El Dr. Hollerith pensó un plan para codificar las respuestas a las preguntas del censo
en tarjetas perforadas. También desarrolló un aparato para perforar, un lector
eléctrico de alimentación manual que podía procesar 50 tarjetas en un minuto y un
aparato de clasificación. Estas mejoras permitieron que el censo de 1890 se
completara en dos años y medio, lo que representaba una gran mejora con respecto al
censo de 1880.
Cuando el censo estuvo completo, Hollerith decidió perfeccionar su equipo de tarjetas
perforadas y sacarlo al mercado. Fundó la Tabulating Machine Company en 1896 para
continuar su trabajo.
En 1911, la Tabulating Machine Company se fusionó con otras dos compañías para
formar la Computing-Tabulating-Recording Company. Esta fusión permitió a Hollerith
concentrarse en inventar equipos mejores. Uno de los socios, un experto en técnicas
de mercado llamado Thomas Watson Jr., dirigió la nueva compañía. Bajo su guía, la
compañía tuvo un enorme éxito. En 1924, la dirección decidió que un nuevo nombre
indicaría mejor la naturaleza progresista de la compañía, por la que la ComputingTabulating-Recording Company se convirtió en la International Business Machines
Corporation (IBM).
1.5.5 Hacia la informática moderna
Los primeros ordenadores electrónicos eran máquinas complejas que necesitaban una
fuerte inversión para su construcción y mantenimiento. La industria del ordenador
nunca se habría desarrollado sin el apoyo y la financiación gubernamental. La
Segunda Guerra Mundial proporcionó un estímulo a los gobiernos para que invirtieran
suficiente dinero en investigación para crear poderosas computadoras. Las primeras
computadoras, creadas durante la guerra, eran propiedad exclusiva del gobierno y de
organizaciones militares. Sólo a partir de la década de los 50, las compañías
comenzaron a producir ya ser consumidoras de computadoras. Hubo que esperar
hasta los 60 para que se hiciera obvio el gran mercado que existía para estas
máquinas.
Para describir el progreso técnico de los ordenadores desde la Segunda Guerra
Mundial, los informáticos utilizan el término "generaciones". Cada generación
tecnológica tiene sus propias características identificativas. Ahora estamos en la
cuarta generación de tecnología informática y algunos expertos opinan que la quinta
generación se nos está echando encima.
Tema 1: Conceptos Generales.
Página 13
La Primera Generación
Fase previa: las primeras computadoras electrónicas
A finales de la década de los 30, el matemático ingles Alan Turing escribió un trabajo
describiendo la capacidad y las limitaciones de una hipotética máquina de
computación de tipo general a la que se llegó a conocer como máquina de Turing.
Turing también ayudó a construir la computadora británica llamada Robinson
durante la Segunda Guerra Mundial para descifrar mensajes alemanes codificados por
la máquina alemana En igma. En 1950 Turing publicó un artículo con el título
"Maquinas de computación e inteligencia", en el que proponía el test de Turing de
inteligencia artificial. Los científicos todavía utilizan esta prueba como estándar.
Simplificando, el test de Turing requiere que un ordenador sea capaz de mantener una
"conversación" (utilizando el teclado y la pantalla) con una persona sin que ésta pueda
distinguir si está manteniendo una conversación con un ordenador o con otro
humano.
Al profesor John Atanasoff de la Universidad de Iowa se le considera el autor de los
conceptos que llevaron a la invención del ordenador electrónico. En 1939, él y un
estudiante graduado llamado Clifford Berry crearon una máquina calculadora
electrónica que podía resolver sistemas de ecuaciones. Se la conoce como ABC
(Atanasoff Berry Computer) y fue el primer ordenador digital de propósito específico.
En 1941, Konrad Zuze se construye la primera computadora de propósito específico
que funciona con relés eléctricos. Fue llamada Z3.
Poco
de spués,
la
universidad
de
Harvard
contactó con IBM para crear una computadora
de carácter general basándose en los estudios
de Turing y de Ada Byron. La computadora
Mark I estuvo operativa en 1944. Mark I era en
parte electrónica y en parte mecánica. Era
e norme (medía 2,5 m de alto por casi 17 m de
largo) y muy lenta, tardando entre 3 y 5 segundos en realizar una multiplicación
sencilla. Las calculadoras actuales de unas 1000 Ptas. funcionan mejor que la Mark I.
La Segunda Guerra Mundial creó una necesidad en el ejército estadounidense de
calcular rápidamente trayectorias para misiles. El ejército le pidió al Dr. John Mauchly
de la Universidad de Pennsylvania que desarrollara una máquina con este propósito.
Aunque había sido encargado por el ejército para utilizarlo durante la guerra, ENIAC
(Electronic Numeric Integrator and Calculator) no se completó hasta dos meses más
tarde de la finalización del conflicto. ENIAC podía hacer cinco mil operaciones
Tema 1: Conceptos Generales.
Página 14
aritméticas en un segundo, lo que era bastante mejor que el rendimiento del Mark I.
Medía más de 30 metros de largo y 3 metros de alto, pesaba 30 toneladas y contenía
unos 18.000 tubos de vacío. Hoy es posible colocar varios millones de componentes en
un sólo chip (circuito integrado) de una pulgada cuadrada.
No obstante, ENIAC era difícil de utilizar porque cada vez que se usaba para resolver
un nuevo problema, el personal tenía que modificar manualmente el programa para
introducir nuevas instrucciones.
ENIAC. Primer ordenador totalmente electrónico
Para pensar en soluciones a este problema, se contactó con John von Neumann (a la
edad de 20 años ya tenía fama de ser un
matemático excepcional. Nacido, criado y educado
en Hungría, von Neumann se trasladó a Estados
Unidos y se hizo profesor de matemáticas en la
Universidad de Princeton). El resultado de su
estudio fue el concepto del almacenamiento de
programa. El concepto de programa almacenado
consistía en guardar los programas en la memoria
interna junto con los datos. Una ventaja clave de
esta técnica es que la computadora puede volver
sobre
cualquier
instrucción
y
repetirla.
La
mayoría de las tareas interesantes que realizan
los
ordenadores
actualmente
surgen
de
la
repetición de ciertas acciones una y otra vez. Desde entonces, todos los ordenadores
que se han vendido comercialmente, empezando por UNIVAC, han utilizado el
concepto de programa almacenado.
Tema 1: Conceptos Generales.
Página 15
De lleno en la primera generación (1951-1959)
Hasta 1951 las computadoras electrónicas se hallaban exclusivamente en manos de
científicos, ingenieros y el ejército. Nadie había
intentado crear un ordenador electrónico digital
con fines comerciales. En aquel momento, los
creadores de ENIAC, formaron una compañía para
comercializar
una
Conocida
como
utilizaba
tarjetas
versión
UNIVAC,
de
su
esta
perforadas
de
máquina.
computadora
IBM
para
introducir datos.
Como la oficina del censo de Estados Unidos ya estaba utilizando tarjetas perforadas
de IBM, era natural que la oficina comprara el primer ordenador en 1951. La
compañía de Mauchly y Eckert se convirtió en la división UNIVAC de la Sperry-Rand
Corporation, que más tarde adoptó el nombre UNISYS.
Viendo que existía un segundo mercado para los ordenadores
comerciales, IBM anunció su primer ordenador comercial, el
IBM 701, en 1953. IBM fabricó 19 ordenadores de este tipo.
En aquel momento, los líderes de la industria creían que 19
ordenadores
serían
suficientes
necesidades
de
computación
para
de
ocuparse
las
de
las
empresas
estadounidenses. Grandes, lentos y caros, estos primeros ordenadores necesitaban
instalaciones especiales y un personal altamente cualificado.
Características de la Primera Generación
La primera generación de ordenadores utilizaba válvulas
de vacío. Los ordenadores de la primera generación eran
grandes y lentos e irradiaban mucho calor. Las válvulas
de vacío solían fallar con frecuencia, de manera que los
ordenadores de la primera generación estaban "parados"
la
mayoría
del
tiempo.
Pero
habían
cautivado
la
imaginación de la gente. En periódicos y revistas los
periodistas escribían sobre los "cerebros electrónicos"
que cambiarían el mundo.
Los ordenadores de la primera generación recibían las instrucciones en lenguaje
máquina, que está compuesto en su totalidad por los números 0 y 1. El lenguaje
máquina se diseñó así porque las computadoras electrónicas utilizan el sistema
Tema 1: Conceptos Generales.
Página 16
binario. Como es muy difícil trabajar con el lenguaje máquina, sólo unos pocos
especialistas sabían cómo programar estas primeras computadoras.
Todos los datos e instrucciones eran introducidos en los ordenadores de la primera
generación por medio de tarjetas perforadas. El almacenamiento secundario de las
computadoras consistía en tambores magnéticos.
Hasta 1957 no se impuso la cinta magnética como medio de almacenamiento
secundario más rápido y eficaz. Una sola cinta podía contener aproximadamente la
información de 1.100 tarjetas perforadas; es decir, unas 21 páginas de información.
La segunda generación (1959 -1963)
La primera generación de ordenadores era poco fiable, principalmente porque las
válvulas
de
vacío
se
quemaban
con
frecuencia.
Para
mantener
ENIAC
en
funcionamiento, los estudiantes tenían carritos de la compra llenos de válvulas para
cambiar las docenas que se quemaban durante una sesión normal. Pero un invento de
1948, el transistor, iba a cambiar la manera en que se fabricaban los ordenadores,
llevándolos hacia la segunda generación de la tecnología de los ordenadores
modernos. A diferencia de las válvulas de vacío, los transistores son pequeños,
necesitan poca energía para su funcionamiento y trabajan en frío. Además, son mucho
más fiables. Como los ordenadores de la segunda generación se fabricaron con
transistores en vez de válvulas de vacío, estos ordenadores eran más rápidos, más
pequeños y más fiables que los de la primera generación.
Durante esta generación, se amplió la memoria auxiliar. Como almacenamiento
secundario, se crearon discos magnéticos, aunque se seguía utilizando comúnmente
la cinta magnética.
Se empezaron a utilizar periféricos que recibían y mostraban la información de
manera más comprensible: se diseñaron impresoras y lectores ópticos.
Los ordenadores de la segunda generación eran más fáciles de programar que los de la
primera. La razón era el desarrollo de los lenguajes de alto nivel, que son más fáciles
de comprender y utilizar que el lenguaje ensamblador. Asimismo, a diferencia del
lenguaje ensamblador, un lenguaje de alto nivel no es específico de una determinada
máquina. Esto posibilita su utilización en ordenadores fabricados por diferentes
compañías.
Los ordenadores de la segunda generación se podían comunicar entre sí utilizando
las líneas telefónicas, transmitiendo datos de un lugar a otro. La comunicación era
bastante lenta, pero sin duda ofrecía un método nuevo de intercambiar ideas y datos.
Tema 1: Conceptos Generales.
Página 17
Estos ordenadores de la segunda generación también tenían problemas. Los
dispositivos de entrada y salida eran tan lentos que el ordenador solía estar parado,
esperando a que las tarjetas se leye ran o se imprimieran los informes. Dos soluciones
diferentes pero igualmente importantes resolvieron este problema. Aunque ambos
proyectos empezaron durante la segunda generación y utilizaron tecnología de la
segunda generación, ninguno se completó hasta bien avanzada la tercera generación.
El Dr. Daniel Slotnick desarrolló la primera solución: el ILLIAC IV, que se completó en
1964. ILLIAC IV era único porque tenía cuatro unidades de control; de esta manera,
podía realizar entrada, salida y operaciones mate máticas al mismo tiempo.
Un grupo de profesores y alumnos del Instituto de Tecnología de Massachusetts (MIT)
desarrolló una segunda solución: Por medio del proyecto MAC (ordenador de acceso
múltiple), crearon un sistema de multiprogramación que podía procesar los programas
utilizados por diferentes usuarios uno detrás de otro. Como el ordenador podía
alternar entre varios programas, no tenía que quedarse parado esperando las
operaciones de entrada y salida.
La tercera generación (1963 -1975)
Como sucedió con la primera generación de ordenadores, el
dispositivo que terminó con la segunda generación fue
inventado antes de que comenzara ésta. En 1958, Jack St.
Clair Kilby y Robert Noice inventaron el primer circuito
integrado.
Los circuitos integrados incorporaban muchos transistores y circuitos electrónicos en
un único disco de silicio o chip. La tecnología de los circuitos integrados es la
responsable del progreso técnico de la industria de la informática.
El primer miniordenador disponible en el mercado apareció en 1965. El PDP-8
(Procesador de datos programados) cabía en una esquina de una habitación y no
necesitaba las constantes atenciones de un operador. Pero lo más novedoso fue que
diferentes usuarios podían acceder al ordenador desde diferentes ubicaciones en el
mismo
sistema
edificio
de
(la
implantación
tiempo
del
compartido,
desarrollado en los ordenadores de la
segunda
generación).
El
precio
del
miniordenador era aproximadamente la
cuarta parte del coste de un sistema
mainframe tradicional. Por primera vez,
las compañías más pequeñas podían comprar ordenadores.
Tema 1: Conceptos Generales.
Página 18
En 1967, había tantos lenguajes de programación que IBM decidió "abrir" sus
sistemas. Antes de ese momento, los compradores recibían convertidores de lenguajes
(compiladores) para todos los lenguajes con los que podían funcionar los sistemas
informáticos que habían comprado. Ahora los compradores sólo tenían que comprar
los convertidores que necesitaran. El resultado fue un mercado competitivo para los
convertidores de lenguaje y el principio de la industria del software.
Se incluyó en todas las computadoras un programa que facilitaba el uso de la misma
a personal que no tenía que ser altamente especializado: el sistema operativo.
Otro avance significativo de esta generación fue el lanzamiento del primer satélite de
telecomunicaciones. Las estaciones de telecomunicaciones de la tierra podían
transmitir y recibir datos de los satélites, permitiendo la comunicación global entre los
sistemas informáticos.
La cuarta generación (1975 hasta nuestros días)
A principios de los años 70, se diseñó el primer chip microprocesador. Un chip
microprocesador tiene en un solo chip toda la unidad de control y la unidad
aritmético-lógica de un ordenador. La importancia del microprocesador es tanta que
no se puede exagerar aún más: ha cambiado el mundo. Las técnicas utilizadas para
fabricar los microprocesadores, llamadas circuito de integración a mayor escala (VLSI),
permiten que las fábricas produzcan chips informáticos en masa que contienen
cientos, miles o incluso millones de transistores.
También en esta generación, se aumenta la capacidad de entrada y salida de datos y
se construyen terminales inteligentes que incluyen memoria y que disponen de
ciertos programas.
A finales de la década de los 70, muchas compañías lazaron kits de construcción de
microordenadores, pero eran difíciles de montar. Dos jóvenes empresarios, Steve Jobs
y Steve Wozniak, soñaban con crear un "ordenador doméstico". Querían un
microordenador tan sencillo que se pudiera sacar de una caja, enchufarlo y utilizarlo,
como si fuera un tostador. Jobs y Wozniak se instalaron
en un garaje después de vender un Volkswagen por unas
175.000
pesetas
para
conseguir
el
capital
que
nece sitaban. Con la ayuda del experto Mike Markkula,
fundaron Apple Computer, Inc. en abril de 1977. Su
primer producto, el Apple I, era un procesador de texto
para los aficionados a la informática, pero la experiencia que la compañía obtuvo al
crear el Apple I les llevo a crear el sistema Apple II, que tuvo mucho éxito. El Apple II
era un microordenador completo, con su teclado, su monitor, unidad de disco y
Tema 1: Conceptos Generales.
Página 19
sistema operativo. Apple Computer, Inc. se convirtió en una de las compañías líderes
del mercado de los microordenadores. La introducción del primer software de hoja de
cálculo, VisiCalc, en 1979, ayudó a convencer al mundo de que los microordenadores
no eran sólo un juguete.
En 1980, IBM decidió que el mercado del miniordenador era
demasiado prometedor como para ignorarlo y firmó un contrato
para que Microsoft Corporation escribiera un sistema operativo
para un nuevo microordenador. El ordenador personal de IBM
(PC), con un chip fabricado por Intel y un sistema operativo de
Microsoft, fue lanzado al mercado en 1981. Como Intel y Microsoft eran contratistas
independientes, eran libres de comercializar sus productos en el mercado. Como
resultado, muchos fabricantes desarrollaron microordenadores que hoy se conocen
también como compatibles IBM. La tecnología de la cuarta generación sigue vigente;
muchos expertos creen que los esfuerzos de miniaturización acabarán por producir
chips con miles de millones de transistores.
Aunque los lenguajes de alto nivel todavía se utilizan mucho, han aparecido
lenguajes de muy alto nivel durante la cuarta generación. Un lenguaje de muy alto
nivel es en realidad una manera de escribir instrucciones para un programa complejo
que tiene un conjunto de comandos muy grande.
Otro desarrollo de la cuarta generación es la propagación de redes informáticas de
alta velocidad, que permiten que los ordenadores se comuniquen y compartan datos.
Dentro de las compañías, las redes de área local (LAN) conectan varias docenas o
incluso varios centenares de ordenadores en un área geográfica limitada (un edificio o
varios edificios cercanos entre sí). Las redes de área extensa (WAN) proporcionan
conexiones globales para los ordenadores actuales.
Las computadoras, durante esta generación, se han convertido en interesantes para
cualquier tipo de usuario, no sólo para grandes empresas, debido a que incorporan
programas de uso general: procesadores de textos, hojas de cálculo, gestores de bases
de datos, etc.
La tecnología informática actual
Los microordenadores actuales son más pequeños, rápidos, baratos y eficaces que el
ENIAC. Disponemos de modelos de microordenadores para mesa, portátiles, del
tamaño de un cuaderno o del de una calculadora. Debido a los microordenadores, la
mayoría de los usuarios de ordenadores no son profesionales de la informática. Para
conseguir que los ordenadores sean más fáciles de utilizar, las compañías han
desarrollado las interfaces gráficas de usuario.
Tema 1: Conceptos Generales.
Página 20
Una interfaz gráfica de usuario (GUI) proporciona iconos (dibujos) y menús (listas de
comandos) que los usuarios pueden se leccionar con un ratón.
La primera GUI comercializada, llamada Finder, fue introducida
por Apple para el Macintosh en 1984. Microsoft ha desarrollado
una interfaz similar, que se conoce como Windows, que es muy
popular en los microordenadores compatibles IBM. Además, las
aplicaciones más modernas incluyen tutoriales y ayuda para los nuevos usuarios. La
industria de los microordenadores ha estado dividida entre Apple e IBM desde 1981.
Históricamente, estas dos familias no podían utilizar los mismos programas. Esto
cambió en 1991, cuando Apple, IBM y Motorola firmaron un acuerdo que ha
provocado el desarrollo de microordenadores que pueden alternar entre el modo
Macintosh y el modo IBM. Desde 1992, todos los ordenadores Macintosh pueden leer
disquetes con formato IBM y ejecutar programas escritos para microordenadores IBM.
A finales de 1995, IBM lanzó ordenadores capaces de leer disquetes con formato Apple
y ejecutar programas escritos para estos ordenadores. En 1993 IBM compró los
derechos del sistema operativo 0 de Apple Macintosh. Es sólo cuestión de tiempo que
estas dos familias se hagan una.
¿Una quinta generación?
Si realmente hay una quinta generación, se está haciendo esperar; después de todo, la
última generación empezó en 1975. (De todas maneras, las fechas son arbitrarias y
quizás pronto sepamos que la quinta generación comenzó en 1990). Se están
produciendo grandes cambios tanto en software como en hardware. Según los
expertos, lo que distinguirá a la nueva generación será la inteligencia artificial. Los
ordenadores que utilicen inteligencia artificial tendrán algunos atributos asociados
con la inteligencia humana, como las capacidades de decodificar y responder al
lenguaje natural (un lenguaje humano como el inglés), para razonar y sacar
conclusiones, y para reconocer patrones en la recepción de estímulos sensoriales.
Tema 1: Conceptos Generales.
Página 21