Download Historia de LINUX y UNIX - clary-system

Document related concepts
no text concepts found
Transcript
EVALUACIÓN COMPUTADOR IMPAR
1. REALICE LAS SIGUIENTES ACCIONES Y ESCRIBA SI ES NECESARIO LA RESPUESTA.
UNA VEZ FINALIZADO EL TIEMPO ACORDADO, MUESTRE A CLARA LAS
EVIDENCIAS DE ESTA EVALUACIÓN.
a) Todo el documento debe tener interlineado con 1,5 líneas, fuente Century Gothic 12 y
alineación izquierda.
b) Al tercer párrafo de la página 3, colóquelo a tres columnas.
c) Al segundo párrafo de la última página colóquele bordes de 2 líneas, en estilo 3D, color
verde claro, con relleno anaranjado, énfasis 2, oscuro 60%.
d) Busque las palabras ordenador y cámbielas por computador, de color Azul Énfasis 1,
Oscuro 25%, subrayado. Por favor muestre en la parte de abajo de esta pregunta el
pantallazo que evidencia cuántos cambios realizó.
e) Las páginas 32 y 33 deben quedar en orientación Horizontal únicamente.
INTRODUCCIÓN
La historia del ordenador es muy interesante ya que muestra como el hombre logra producir las
primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización,
cuando grupos empezaron a formar naciones y el comercio era ya medio de vida.
La evolución histórica del procesamiento de datos se divide en cuatro fases:
1.- técnicas de registros
2.- dispositivos de cálculo
3.- programas de tarjetas perforadas
4.- ordenadores electrónicos
Un ordenador procesa datos. Las empresas desarrollan departamentos de procesamiento de datos
( programación de ordenador ), pues el ordenador procesa datos para
producir información significativa.
Los datos se construyen de hechos y cifras en bruto (sin procesar).
La información está constituida por los datos procesados; la información tiene significado, los
datos no.
El ordenador y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto
el programa convierte los datos en información útil.
Ordenador; definición:
En el nivel más elemental, un ordenador procesa datos. Las empresas desarrollan departamentos
de procesamiento de datos ( programación de ordenador ), pues El ordenador procesan datos
para producir información significativa.
Los datos se construyen de hechos y cifras en bruto (sin procesar).
La información está constituida por los datos procesados; la información tiene significado, los
datos no.
El ordenador y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto, el
programa convierte los datos en información útil.
Los datos generalmente se introducen por medio de algún dispositivo de entrada, como
un teclado. La información generalmente se envía a un dispositivo de salida, como una pantalla,
una impresora o un archivo en disco. La entrada y la salida de El ordenador pueden provenir de y
dirigirse a muchos tipos de dispositivos distintos.
El ordenador es un dispositivo electrónico capaz de recibir un conjunto de instrucciones y
ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando
otros tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador.
Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y
manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación
gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos
de comunicación. Son herramientas esenciales prácticamente en todos los campos
de investigación y en tecnología aplicada.
Historia del Ordenador:
Durante siglos la gente vivió sobre la tierra sin llevar registros ni archivos. Pero en la medida en
que se formaron las organizaciones sociales y se tornó más complejo el tejido social, se fueron
haciendo necesarias adaptaciones e innovaciones de diversa índole.
El ordenador (del inglés: computer; y este del latín: computare, 'calcular'), también
denominada ordenador (delfrancés: ordinateur; y éste del latín: ordinator), es una máquina
electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Un
ordenador está formado, físicamente, por numerosos circuitos integrados y otros muchos
componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas
con suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos
electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible
(programas, datos, información, etcétera). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de
procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida.
Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento
(operaciones aritmético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así,
que El ordenador recibe datos, los procesa y emite la información resultante, la que luego puede
ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa;
todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, esto la
convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora
cuyo único propósito es calcular limitadamente). Es así que, sobre la base de datos de entrada,
puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer
humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música,
etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su
intervención.
Básicamente, la capacidad de un ordenador depende de sus componentes hardware, en tanto que
la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga
instalado.
Si bien esta máquina puede ser de dos tipos diferentes, analógica o digital, el primer tipo es usado
para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es El ordenador
digital (de propósitos generales); de tal modo que en términos generales (incluso populares),
cuando se habla de "El ordenador" se está refiriendo a ordenador digital. Las hay de arquitectura
mixta, llamadas ordenador híbridas, siendo también éstas de propósitos especiales.
En la Segunda Guerra mundial se utilizaron ordenador analógicas mecánicas, orientadas a
aplicaciones militares, y durante la misma se desarrolló la primera ordenador digital, que se
llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que
equivalen al consumo de cientos de ordenadores actuales (PC’s).6 Los ordenadores modernos
están basados en circuitos integrados, miles de millones de veces más veloces que las primeras
máquinas, y ocupan una pequeña fracción de su espacio. 7
Ordenador simples son lo suficientemente pequeñas para residir en los dispositivos móviles.
Las ordenador portátiles, tales como tabletas, netbooks, notebooks, ultrabooks, pueden ser
alimentadas por pequeñas baterías. Ordenador personales en sus diversas formas son iconos de
la Era de la información y son lo que la mayoría de la gente considera como "ordenador". Sin
embargo, los ordenadores integrados se encuentran en muchos dispositivos actuales, tales
como reproductores MP4; teléfonos celulares; aviones de combate, y, desde juguetes hasta robot
industriales.
Cronología.
Edad Media
El matemático y astrónomo persa Musa al-Juarismi (780-850), inventó el algoritmo, es decir, la
resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien
definida, ordenada y finita de operaciones.
Siglo XVII
1617: El matemático escocés John Napier (1550-1617), famoso por su invención de
los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando
barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y
en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "huesos de
Napier" (ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el
desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras
subsecuentes, que contaron con logaritmos.
1623: La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania.
Llamada "reloj calculador", la máquina incorporó los logaritmos de Napier, haciendo
rodar cilindros en un albergue grande. Se comisionó un reloj calculador para Johannes Kepler,
famoso matemático y astrónomo, pero fue destruido por el fuego antes de que se terminara
su construcción.
1624: La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La
regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se
calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de
la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido
entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970,
calculadoras portátiles comenzaron a ser populares.
Pascalina del año 1652
1645: Blaise Pascal inventa la pascalina. Con esta máquina, los datos se representaban
mediante las posiciones de los engranajes. La pascalina es una de las primeras calculadoras
mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los
dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que
podían sumarse números haciéndolas avanzar el número de dientes correcto.
1666: Samuel Morland inventa la primera máquina de multiplicar en la corte del rey Carlos II
de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba
decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A
diferencia de la pascalina, este aparato no tenía avance automático de columnas.
1673: el matemático alemán Gottfried Leibniz inventa la primera calculadora de propósito
general. El aparato era una partida de la pascalina; mientras opera usa un cilindro de dientes
(la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar
multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.
Siglo XVIII
1769: Wolfgang von Kempelen, un noble húngaro, inventa un jugador de ajedrez
supuestamente Autómata, El Turco. Pretendió ser una máquina pura, incluía un jugador de
ajedrez "robótico", sin embargo fue una farsa, la cabina era unailusión óptica bien planteada
que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí. Era una
sensación dondequiera que iba pero se destruyó en un incendio en 1856.
1777: Charles Stanhope (tercer earl de Stanhope) (Charles Mahon) inventa la primera máquina
lógica, el demostrador lógico. Era un aparato de bolsillo que resolvía silogismos tradicionales y
preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en
ordenador modernas.
Siglo XIX
1801: El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para
controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer.
Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido,
logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales
que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar
que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas.
La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos
aparatos de la informática e idiomas de la programación.
1820: La primera calculadora de producción masiva se distribuyó por Charles Thomas de
Colmar. Originalmente se les vendió a casas del seguro parisienses, el aritmómetro de Colmar
operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y
eventualmente recibió una medalla a la Exhibición Internacional en Londres en1862.
1822: Charles Babbage completa su artefacto de la diferencia, una máquina de propósito
específico que se podía usar para calcular valores de funciones polinómicas mediante
el método de las diferencias. El artefacto de la diferencia era un ensamble complejo de ruedas,
engranajes, y remaches. Babbage diseñó su "artefacto analítico", un aparato de propósito
general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del
artefacto analítico eran la primera conceptualización clara de una máquina que podría
ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de
informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en
toda ordenador digital subsiguiente, incluidas las modernas. El artefacto analítico fue
finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la
muerte de Babbage en 1871. Por su discernimiento, Babbage es conocido hoy en día como
el Padre de El ordenador Modernas.
1837: Charles Babbage describe la máquina analítica. Es el diseño de un ordenador moderno
de propósito general. La idea que tuvo Charles Babbage sobre un ordenador nació debido a
que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a
errores.
1843: Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de
manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta
sugerencia algunos consideran a Lady Lovelace la primera programadora.
1854: el lógico inglés George Boole publica su Álgebra de Boole. El sistema de Boole redujo a
argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. A
causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de
la teoría de la informática.
1869: La primera máquina lógica en usar el álgebra de Boole para resolver problemas más
rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el piano
lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.
1878: Un comité de la Asociación Británica para el avance de la ciencia recomienda no
construir la máquina analítica de Babbage, por lo que este inventor no tuvo acceso a fondos
del gobierno.
1878: Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una
tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método
digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar
que un español podía inventar tanto como un estadounidense.
1879: A los 19 años de edad, Herman Hollerith es contratado como asistente en las oficinas
del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas
en las que los agujeros representaban información sobre el sexo o la edad, entre otros. Gracias
a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco
menos que el censo de 1880. Se tardaba tanto en hacer el censo debido a la llegada masiva de
inmigrantes.
1884: Dorr Felt desarrolló su comptómetro, el cual fue la primera calculadora que se operaba
con sólo presionar teclasen vez de, por ejemplo, deslizar ruedas.
1893: La primera máquina exitosa de multiplicación automática se desarrolló por Otto
Steiger. El Millonario, como se le conocía, automatizó la invención de Leibniz de 1673, y fue
fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló
inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta
años que siguieron. El cántabro Leonardo Torres Quevedo presenta en la Academia de
Ciencias Exactas, Físicas y Naturales de la Memoria sobre las máquinas algébricas, y
posteriormente en 1895 la memoria Sur les machines algébraiques en un Congreso en
Burdeos.
1900: Leonardo Torres Quevedo presenta la memoria Machines à calculer en la Academia de
Ciencias de París.
Siglo XX
Años 1900
1906: el estadounidense Lee De Forest inventa el tubo de vacío. El Audion, como se llamaba,
tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces
de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso
en varias generaciones tempranas de 5 ordenador, a comienzos de 1930.
Años 1910
1912: Leonardo Torres Quevedo construye un Autómata capaz de jugar al ajedrez que llamó El
Ajedrecista y fue dado a conocer al público en 1914.
1914: El español Leonardo Torres Quevedo establece las bases de la automática, plantea la
problemática de lainteligencia artificial (sin introducir esta denominación) y la aritmética
en coma flotante en sus Ensayos sobre automática. Su definición. Extensión teórica de sus
aplicaciones.
1919: los inventores estadounidenses W. H. Eccles y F. W. Jordan desarrollan el primer circuito
multivibrador o biestable (en léxico electrónico flip-flop). El flip-flop permitió diseñar Circuitos
electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar
así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso
del bit binario, estructura que utilizan las actuales ordenador.
1920: Leonardo Torres Quevedo construye su aritmómetro electromecánico, primera
calculadora automática.
Años 1920
1924: Walther Bothe construye una puerta lógica AND para usarla en experimentos físicos, por
lo cual recibió el premio Nobel de física en 1954.
1925: en Estados Unidos se fundan los laboratorios Bell.
1930: Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de
resolver ecuaciones diferenciales.
Años 1930
1931: Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones
aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que
los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto
sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son
fundamentales en las ciencias teóricas de la computación.
1936: Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.
1938: Konrad Zuse completa la primera ordenador electro-mecánica, aunque no 100%
operativa, la Z1.
1938: se encuentra la primera generación de ordenador que eran a base de tubos de vacío,
esta generación abarca desde 1938 hasta 1958 donde inicia la segunda generación.
1939: los ingenieros William Hewlett y David Packard fundan en Palo Alto, California la
compañía Hewlett-Packard
1940: Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora
electro-mecánica que podía manejar números complejos.
Años 1940
1941: El ordenador Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y
completamente automática.
1942: John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de
propósito especial para resolversistemas de ecuaciones lineales simultáneas, la cual fue
llamada la "ABC" ("Atanasoff Berry Computer").
1944: En Estados Unidos se construyó, en la Universidad de Harvard, la Harvard Mark
I (primera máquina electromecánica), diseñada por un equipo encabezado por Howard H.
Aiken.
1944: En Inglaterra se construyeron los ordenadores Colossus (Colossus Mark I y Colossus
Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda
guerra mundial.
1945: El primer caso de malfuncionamiento en El ordenador causado por la intrusión de una
polilla al sistema fue documentado por los diseñadores del MARK II. Erróneamente se cree que
de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo
este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos
mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la
palabra desde 1889.
1945: John von Neumann escribe el "First Draf of a report on the EDVAC" una página del
primer documento donde se describe el diseño lógico de un ordenador utilizando el concepto
de programa almacenado (stored-program), en él se señala una architectura distinta a
la Arquitectura Harvard hoy día conocida como Arquitectura de von Neumann.
1945: Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una
librería de libros y películas.
ENIAC.
1946: en la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator
And Calculator), que fue la primera ordenador electrónica de propósito general. Esta máquina
ocupaba todo un sótano de la Universidad, tenía más de 17.000 tubos de vacío, consumía
200 kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la
capacidad para realizar cinco mil operaciones aritméticas por segundo.
1946: Se pone un funcionamiento el ordenador británico EDSAC (Electronic Dilay Storage)
construida por Maurice Wilkes y un equipo perteneciente al laboratorio de matemáticas de la
universidad de Cambridge, fue inspirada en las ideas que Neumann expone en su borrador.
1947: en Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan
el transistor.
1949: Jay Forrester desarrolla la primera memoria, la cual reemplazó los no confiables tubos al
vacío como la forma predominante de memoria por los próximos diez años.
1949: El ordenador EDSAC corre su primer programa.
1950: Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de
Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y
comunicación humana y de ordenador.
En la antiguedad
Año 4000 a 3000 a.C. Invención del Ábaco, en China, instrumento formado por un conjunto de
cuerdas paralelas, cada de las cuales sostiene varias cuentas móviles, usadas para contar, se
desarrollo, hasta reflejar el sistema decimal, con diez cuentas en cada cuerda.
Año 1300 a 1500 d.C. En el imperio Inca es usado el sistema de cuentas, mediante nudos en
cuerdas de colores, para mantener un registro y calculo de los inventarios de granos y ganado.
1617 John Napier desarrolla los vástagos de Napier, formados por un conjunto de piezas con
números grabados en ellas, que podían ser usadas para multiplicar, dividir y extraer raíces.
1642 Blaise Pascal construye el primer calculador mecánico, que consistía en un conjunto de
ruedas, cada una de las cuales registraba un dígito decimal, y al girarse en diez pasos producía un
paso de rotación en la siguiente.
El Ábaco
El ábaco representa el artefacto más antiguo empleado para manipular datos. Se cree que
alrededor del año 3000 BC, los babilonios empleaban el ábaco para realizar cómputos
matemáticos rudimentarios.
Los Pioneros
1617 – John Napier John Napier, un matemático Escocés, inventó los Huesos o Bastoncillos de
Napier. Este artefacto permitía multiplicar grandes números mediante la manipulación de estos
bastoncillos.
1623 – Wilhelm Schickard Wilhelm Schickard fue el primer matemático en intentar desarrollar una
calculadora. Nativo de Alemania, aproximadamente para el año 1623, éste matemático construyó
un mecanismo que podía sumar, restar, multiplicar y dividir. Su plan era enviar a su amigo,
Johannes Keple, una copia de su nueva invención, pero un fuego destruyó las partes antes que
fueran ensambladas. El prototipo nunca fue encontrado, pero un esquema rudimentario de esta
máquina sobrevivió. Para la década de los 1970, fue construido un modelo de este tipo de
ordenador matemático.
1642 – Blaise Pascal fue un matemático francés que nació en el 1623. Desde muy temprana edad
era un entusiasta en el estudio autodidacta de las matemáticas. Antes de que alcanzara la edad de
trece años, Pascal descubrió un error en la geometría de Descartes En el 1642 inventó una
máquina calculadora que permitía sumar y restar, conocida como el Pascalino. Tal mecanismo,
empleaba ruedas numeradas del 0 al 9, la cual incorporaba un mecanismo de dientes y
cremalleras que permitían manejar números hasta 999,999.99. Debido al alto costo para
reproducir este aparato, y porque la gente temía que fueran despedidas de sus trabajos, el
Pascalino no fue un éxito comercial.
1694 – Gottfried Wilhelm Von Leibniz - Fue un matemático Alemán que diseño un instrumento
llamado el “Stepped Reckoner”. Esta máquina era más versátil que la de Pascal puesto que podía
multiplicar y dividir, así como sumar y restar. 1790 – Joseph Marie Jacquard Creó el Telar de
Jacquard (Jacquard’s Loom) el cual empleaba tarjetas perforadas para crear patrones en una
fábrica de avitelado en una tejedora.
1812 – Charles Babbage fue un inglés que, agravado por errores en las tablas matemáticas que
eran impresas, renunció a su posición en Cambridge para concentrar sus esfuerzos en el diseño y
construcción de un dispositivo que pudiera resolver su problema. Babbage bautizó su máquina del
ensueño con el nombre de Motor Diferencial (Differential Engine), pues ésta trabajaba para
resolver ecuaciones diferenciales. Empleando fondos del gobierno y de sus propios recursos,
durante diecinueve años laboró arduamente en su meta, pero no tuvo éxito. Babbage solo pudo
construir algunos componentes y la gente se referían a su artefacto como la locura de Babbage.
Luego que el gobierno retirará sus fondos, Babbage comenzó a trabajar en otra y más sofisticada
versión de su máquina, la cual fue llamada el Motor Analítico (Analytical Engine). Una amiga
íntima, Augusta Ada Bryron, Condesa de Lovelace, la única hija reconocida por el Barón Bryron,
trató de ayudar a Babbage. Ella reunió dinero para su invención y escribió un programa de
demostración para el Motor Analítico. Por su contribución al desarrollo de tal programa, ella es
considerada como el primer programador de ordenador y el lenguaje de programación Ada fue
nombrado en su honor. En el 1835, Babbage diseño un sistema con provisión para datos impresos,
una unidad de control y una unidad de almacenaje de información. Esta máquina almacenaba los
resultados intermedios en tarjetas perforadas similares a las que utilizaba el telar de Jacquard. Sin
embargo, el Motor Analítico nunca fue completado porque la construcción de la máquina requería
herramientas de precisión que no existían para esa época. La lógica de la máquina de Babbage fu
importante para otros inventores de ordenador. Se le atribuye a Babbage las dos clasificaciones de
El ordenador: el almacenaje,o la memoria, y el molino, una unidad de procesamiento que lleva a
cabo los cómputos aritméticos para la máquina. Por este logro, se le considera el “padre de El
ordenador,” e historiadores se han atrevido a decir que todas El ordenador modernas tienen
descendencia directa del Motor Analítico de Babbage. 1880 – Herman Hollerith Norteamericano
que inventó una perforadora, lectora y tabuladora de tarjetas.
1801 Joseph Marie Jackard perfecciona la primera máquina que utiliza tarjetas perforadas; ésta
era un telar, que podía tejer automáticamente diseños complejos, de acuerdo a un conjunto de
instrucciones codificadas en las tarjetas perforada.
1822 Charles Babbage construye un pequeño modelo operativo de un calculador llamado
“Máquina de Diferencias”
1829 Charles Xavier Thomas, construye el primer calculador que ejecuta las cuatro operaciones
aritméticas en forma exacta.
1872 Frank Stephen Baldwin inventa una calculadora con teclas, basada en los principios de la
máquina de Charles Thomas.
1887 Hernan Hollerith, un estadista, hizo realidad su idea de la tarjeta de lectura mecánica, y
diseñó un aparato que se llamo “Máquina de Censos”. Después del censo de 1890, Hollerith
trasformó su equipo para uso comercial y estableció sistemas de estadísticas de carga para los
ferrocarriles. En 1896, fundó la Compañía de Máquinas de Tabulación, para hacer y vender su
invento. Posteriormente esta empresa se fusionó con otras para formar lo que hoy se conoce
como IBM.
El procesamiento de tarjetas perforadas se basa en una idea simple: los datos de entrada se
registran inicialmente en una forma codificada, perforando huecos en las tarjetas, y estas luego
alimentan a las máquinas, las cuales realizan las diferentes etapas del proceso.
1925 Vennevar Bush y sus colaboradores construyen el primer Ordenador analógico de gran
escala.
1937 Howard Aiken de la Universidad de Harvard en Massachussetts comienza a construir una
máquina calculadora automática, el Mark I, que pudiera combinar las capacidades técnicas de la
época con los conceptos de tarjetas perforadas desarrolladas por Hollerith. En 1944 el proyecto
fue culminado.
El Mark I es considerado el primer Ordenador digital de proceso general. La máquina se basaba en
el concepto de aceptar datos por medio de tarjetas perforadas utilizada como entrada de datos
(INPUT), realizaban cálculos controlados por un relex electromagnético y contadores aritméticos
mecánicos y perforaba los resultados en tarjetas como salidas (OUTPUT).
1943 - 1946 J. Presper Ecker y John Mauchly construyen el primer Ordenador completamente
electrónico, el E.N.I.A.C. (Electronic Numerical Integrator And Calculator), pesaba
aproximadamente 30 toneladas, ocupaba un espacio aproximado de 1.500 pies cuadrados y usaba
18.000 tubos. ENIAC podía resolver en un día lo que manualmente tardaría 300 días.
1944 John Von Neumann desarrolla el concepto de los programas almacenados, es decir, un
conjunto de instrucciones guardadas en una unidad de almacenamiento, que luego son ejecutadas
en forma secuencial. Basándose en este concepto, Ecker y Mauchly diseñan el ENIVAC, que fue
terminado en 1952.
1943 – Howard Aiken Como estudiante de Harvard, Aiken propuso a la universidad crear un
ordenador, basado en el Motor Analítico de Babbage. Lamentablemente, la universidad de
Harvard no le proveyó la ayuda que necesitaba. Sin embargo, su idea tuvo buena acogida para la
compañia privada de IBM. Entonces, Aiken, conjuntamente con un grupo de científicos, se lanzó a
la tarea de construir su máquina. En el 1943, se completó su sueño con su nuevo bebé, llamado
Mark I, también conocido por la IBM como “Automatic Sequence Controlled Calculator”. Este
artefacto era de 51 pies de largo, 8 pies de altura y 2 pies de espesor; contaba con 750,000 partes
y 500 millas de cable; y su peso era de 5 toneladas. Era muy ruidosa, pero capaz de realizar tres
calculaciones por segundo. Este ordenador, aceptaba tarjetas perforadas, las cuales eran luego
procesadas y almacenadas esta información. Los resultados eran impresos en una maquinilla
eléctrica. Esta primera ordenador electromecánica fue la responsable de hacer a IBM un gigante
en la tecnología de El ordenador. Luego, Howard Aiken y la IBM se separaron en compañías
independiente, alegadamente debido a la arrogancia de Aiken. Como fue documentado, IBM había
invertido sobre $0.5 millones en la Mark I y en retorno a su inversión, Thomas J. Watson, el cual
dirigía IBM, quería el prestigio de estar asociado con la Universidad de harvard. En una ceremonia
de dedicación por la ceración del Mark I, el Dr. Howard Aiken hizo alarde de sus logros sin referirse
a la IBM. Este descuido intencional enojó a Watson, el cual le gritaba algunas blasfemias a Aiken
antes de súbitamente dejar la ceremonia. A raíz de este incidente. Watson terminó su asociación
con Harvard. Más tarde, IBM desarrollaron varias máquinas que eran similares a la de Mark L, y
Howard Aiken también construyó una serie de máquinas (la Mark II, Mark III y Mark IV). Otro
interesante hecho ocurrió con Aiken, y es que se acuño la palabra “debug”. En el 1945, el Mark II
estaba albergado en un edificio sin aire acondicionado. Debido a que generaba una gran cantidad
de calor, las ventanas se dejaron abiertas. Sin previo aviso, El ordenador gigante se detuvo y todos
los técnicos trataron frenéticamente de resolver la fuente del problema. Grace Hopper, un
brillante científico, y sus compañeros de trabajo encontraron el culpable: una polilla muerta en un
relevo de El ordenador. Ellos eliminaron la polilla con unas pinzas y la colocaron en la bitácora de
Mark II. Cuando Aiken regresó para ver coma andaban las cosas con sus asociados, ellos le
contaron que tuvieron que “debug” la máquina. Al presente, la bitácora del Mark II se prserva en
el Museo naval en Dahlgren, Virginia. 1939 – John Atanasoff En el 1939, en la Universidad de Iowa
State, John Atanasoff diseño y construyó la primera ordenador digital mientras trabajaba con
Clifford Berrr, un estudiante graduado. Más tarde, Atanasoff y Berry se dedicaron a trabajar en un
modelo operacional llamado el ABC, el “Atanasooff-Berry Computer.” Esta ordenador, completada
en el 1942, usaba circuitos lógicos binarios y tenía memoria regenerativa. 1946 – Dr. John Mauchly
y J. Presper Eckert - 3 - Con el advenimiento de la Segunda Guerra Mundial, los militares
necesitaban un ordenador extremadamente rápida que fuera capaz de realizar miles de cómputos
para compilar tablas balísticas para los nuevos cañones y misiles navales. El Dr. John Mauchly y J.
Presper Eckert creían que la única manera de resolver este problema era con una máquina
electrónica digital, de manera que trabajaron juntos en este proyecto. En el 1946 completaron su
trabajo, del cual surgió un ordenador electrónica digital operacional, llamada ENIAC (Electronic
Numerical Integrator And Computer). Esta máquina fue desarrollada a gran escala, siendo
derivada de las ideas no patentadas de Atanasoff. Este aparato trabajaba con el sistema decimal y
tenía todas las características de El ordenador de hoy día. Las dimensiones de la ENIAC eran
inmensas, ocupando un espacio de 30 X 50 pies, un peso de 30 toneladas, y un consumo de 160
kilovatios de potencia. Conducía electricidad a través de 18,000 tubos de vacío, generando un
calor inmenso; contaba con un aire acondicionado especial para mantenerla fría. La primera vez
que se encendió este sistema menguaron las luces de toda Filadelfia. Esta ordenador operaba a
una frecuencia que era 500 veces más rápida que cualquier ordenador electromecánica de esa
época. Un problema que tenía era que tardaba de 30 a dos hora de calcular para las máquinas
electromecánicas, esta máquina la resolvía en tres minutos. Las limitaciones del ENIAC eran un
reducida memoria y un problema al cambiar de una programa a otro.: Cuando el usuario quería
cambiar a otro programa, la máquina tenía que ser re-alambrada. Estos problemas hubiesen
tomado años en resolverse sino fuera por una reunión entre Herman Goldsine, un matemático y
oficial de enlace para el proyecto de ENIAC, y John Von Newmann, un famoso logístico y
matemático. A raíz de tal reunión, John Von Neumann se unió al equipo de Moore, el cual estaba
muy cerca de embarcar en una nueva ordenador llamada EDVAC (Electronic Discrete Variable
Automatic Computer). 1945 – John Von Newmann Luego de haber llegado John Von Newmann a
Filadelfia, él ayudó al grupo de Moore a adquirir el contrato para el desarrollo de la EDVAC.
Neumann también asistió al grupo con la composición lógica de la máquina. Como resultado de la
colaboración del equipo de Moore, surgió un adelante crucial en la forma del concepto del
programa almacenado. Hasta este momento, El ordenador almacenaba sus programas
externamente, ya fuera en tarjetas conectadas, cintas peroradas y tarjetas. La ENIAC empleaba 18,
tobos al vacío y requería que un par de tales tubos se unieran en una manera particular para que
pudieran sostener la memoria en un bit de los datos. Mauchly y Eckert descubrieron que una línea
de demora de mercurio podría reemplazar docenas de estos tubos al vacío. Ellos figuraron que las
líneas de demoras significaría ahorros gigantescos en los costos de los tubos y espacio de
memoria. Este advance contribuyó a la creación de El ordenador EDVAC. El EDVAC almacenaba
información en memoria en la misma manera que los datos. La máquina, entonces, manipulaba la
información almacenada. Aunque a Von Newmann y su grupo se le acreditó con el uso del
concepto del programa almacenado, no fué para ellos la primera máquina. Eso honor se dirige al
grupo de la Universidad de Cambridge que desarrollarón el EDSAC (Electronic Delay - 4 - Storage
Automatic Computer). El ordenador EDSAC y EDVAC fueron las primeras en usar la notación
binaria. Antes del 1951, El ordenador no fueron manufacturadas a grande escala. En el 1951, con
la llegada del UNIVAC, comienza la era la El ordenador comerciales. Con tan solo dentro de tres
años, IBM comenzó a distribuir su IBM 701 y otras compañías manufacturaron ordenador, tal
como el Burroughs E. 101 y el Honeywell Datamatic 1000. El ordenador que fueron desarrolladas
durante los años 1950 y 1960 se conocieron como El ordenador de la primera generación porque
tenía una característica en común, el tubo en vacío.
Generaciones
El avance de la tecnología empleada en la construcción de los Ordenadores y los métodos de
explotación de los mismos ha variado notablemente. Esto ha dado lugar a que podamos distinguir
hasta ahora cinco generaciones distintas. El paso de una generación a otra siempre ha venido
marcado por las siguientes características:
Miniaturización del tamaño.
Fiabilidad.
Capacidad para resolver problemas complicados.
Velocidad de cálculo.
El ordenador han ido evolucionando desde su creación, pasando por diversas generaciones, desde
1940 hasta la actualidad, la historia de El ordenador ha pasado por muchas generaciones y la
sexta, la más reciente, que se viene integrada con microprocesadores Pentium, más conocido
como ENIAC, se ha considerado a menudo la primera ordenador de propósito general, aunque
este título pertenece en realidad a El ordenador alemana Z1. Era totalmente digital, es decir,
ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia
de otras máquinas contemporáneas de procesos analógicos. Presentada al público el 15 de febrero
de 1946, John W. Mauchly yJohn P. Eckert de la Universidad de Pensilvania (EEUU) iniciaron su
desarrollo en 1943. Esta enorme máquina medía más de 30 metros de largo y pesaba 32
toneladas, estaba compuesta por 17 468 válvulas. El calor de las válvulas elevaba la temperatura
de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones
para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había
terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente
a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada
con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945
Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic
Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está
considerado como la primera ordenador que se llamó Saly fue ampliamente comercializada,
la UNIVAC I, comenzó a funcionar con éxito. En 1952 El ordenador UNIVAC se utilizó para realizar
el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower
sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.
En 1952 entra en funcionamiento la primera de las llamadas IAS machines, diseñadas por John von
Neumann y que incorporaban notables mejoras respecto a sus predecesoras y en 1962, Steven
Russell creó el primer juego para ordenador, por lo cual todo se resume a el futuro
PRIMERA GENERACION
Comprende desde 1951 hasta 1959. La compañía Sperry Rand Corporation construye la UNIVAC I,
el primer Ordenador comercialmente disponible. Los componentes electrónicos usados fueron
válvulas electrónicas, por este motivo su tamaño era muy grande y su mantenimiento complicado.
Se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración. Eran de
escasa fiabilidad, los tiempos de computación de los circuitos fundamentales eran de varios
microsegundos, con lo que la ejecución de los programas largos implicaba espera, incluso de varios
días. La forma de ejecutar los trabajos en los Ordenadores de esta generación era estrictamente a
modo de secuencia.
SEGUNDA GENERACION
Comprende desde 1959 a 1964. Fueron diseñadas con orientación científico - administrativa. Las
compañías NCR y RCA introducen las primeras ordenador construidas completamente a base de
componentes denominados transistores que adoptan la forma de paralelepípedos de silicio, la
velocidad de cálculo aumentó considerablemente. Los Ordenadores más populares de esta
generación fueron el IBM-1401, IBM-1620, IBM-7090, IBM-7094.
TERCERA GENERACION
Comprende desde 1965. La compañía IBM produce las series 360 y 370, construidas con circuitos
integrados de pequeña escala y de gran escala respectivamente, los cuales sustituyen, cada uno de
ellos, a varios transistores, ocupando menor espacio y a menor costo. Estas series poseen
memoria virtual que permite optimizar la memoria principal.
El ordenador de esta generación se caracterizan por:
Uso de circuitos integrados: lo cual hizo posible la reducción del tamaño físico del Ordenador, y
aumentó la velocidad de procesamiento, confiabilidad y precisión.
Multiprogramación: que es la ejecución de varios programas simultáneamente.
CUARTA GENERACION
Comprende desde 1970. Basados en circuitos integrados de alta y media escala de integración con
la que se van consiguiendo mejoras en el tamaño físico, llegando a tener Ordenadores de bolsillo,
aparecen los miniordenadores y los microordenadores.
Desde 1982 Sun Microsystem ha resuelto los problemas que conllevan mantener un ambiente de
computación heterogéneo, a través del empleo de NFS (Network File System o Sistema de
Archivos para Red de Trabajo). Este producto permite la interconexión de ordenadores de los
principales proveedores de equipos, tales como: IBM, DEC, SUN, Unisys, Hewlett Packard, AT&T y
más de 200 otros fabricantes. NFS, puede emplear el medio de comunicación que resulte más
conveniente para el usuario: Ethernet, Token Ring, FDDI, y es totalmente independiente del
sistema operativo que esté instalado en un equipo determinado. A través de NFS:
Se puede compartir archivos que residan en cualquier equipo conectado a la red, sin que el
usuario tenga que conocer su procedencia (acceso transparente de la información).
Ejecutar programas en distintas máquinas, dependiendo de las ventajas comparativas que tiene un
equipo sobre otro en una función específica.
Compartir recursos de almacenamiento y periféricos.
Administrar la red y en general, obtener la funcionalidad y seguridad de un sistema de
computación distribuida.
QUINTA GENERACION
Para algunos especialistas ya se inicio la quinta generación, en la cual se busca hacer más
poderoso el Ordenador en el sentido que sea capaz de hacer inferencias sobre un problema
específico. Se basa en la inteligencia artificial.
El Hardware de esta generación se debe caracterizar por circuitos de fibra óptica que le permita
mayor rapidez e independencia de procesos, arquitectura de microcanal para mayor fluidez a los
sistemas, esto provee mayor número de vías para ayudar a manejar rápido y efectivamente el flujo
de información. Además se están buscando soluciones para resolver los problemas de la
independencia de las soluciones y los procesos basándose para ello en Sistemas Expertos (de
inteligencia artificial) capaces de resolver múltiples problemas no estructurados y en Ordenadores
que puedan simular correctamente la forma de pensar del ser humano.
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e
inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas
de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la
década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas
perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la
información estadística destinada al censo de población de 1890 de Estados Unidos mediante la
utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró
los principios de El ordenador digital moderna. Inventó una serie de máquinas, como la máquina
diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores
consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija
del poeta inglés Lord Byron, como a los verdaderos inventores de El ordenador digital moderna. La
tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero
una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un
ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una memoria para guardar los datos, un procesador para
las operaciones matemáticas y una impresora para hacer permanente el registro.
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como
para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron
sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la
trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la
aviación.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban
en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital
totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba
1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan
Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y
con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un
prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y
las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por
el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic
Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran
medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una
patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser
modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de
programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von
Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al
ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y
permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de
elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con
válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más
prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron
llamadas ordenadores o ordenador de segunda generación. Los componentes se hicieron más
pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más
barata.
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de
varios transistores en un único sustrato de silicio en el que los cables de interconexión iban
soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los
porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de
1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale
Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very
Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único
sustrato de silicio.
Historia de LINUX y UNIX:
LINUX nació como un producto de Linus Torvalds, inspirado en el MINIX, el sistema
operativo desarrollado por Andrew S. Tanenbaum en su obra "Sistemas Operativos: Diseño e
Implementación". Libro en el cual, tras un estudio general sobre los servicios que debe
proporcionar un sistema operativo y algunas formas de proporcionar éstos, introduce su propia
implementación del UNIX en forma de código fuente en lenguaje C y ensamblador, además de las
instrucciones necesarias para poder instalar y mejorar el mismo.
La primera versión de LINUX, enumerada como 0.01 contenía solo los rudimentos del núcleo y
funcionaba sobre una máquina con el MINIX instalado, esto es, para compilar y jugar con LINUX
era necesario tener instalado el MINIX de Tanembaum.
El 5 de Octubre de 1991, Linus anunció su primera versión 'oficial', la 0.02 con esta versión ya se
podía ejecutar el bash (GNU Bourne Shell) y el gcc (GNU C compiler).
Después de la versión 0.03, Linus cambió este número por 0.10 y tras las aportaciones de
un grupo inicial de usuarios se incrementó de nuevo la denominación a 0.95, reflejando la clara
voluntad de poder anunciar en breve una versión 'oficial' (con la denominación 1.0).
En Diciembre de 1993 el núcleo estaba en su versión 0.99 pH I. En la actualidad la última versión
estable es al 2.0.30 aunque existe ya la versión de desarrollo 2.1.
La enumeración de las versiones de LINUX implica a tre números separados por puntos, el primero
de ellos es la versión del sistema operativo es el que distingue unas versiones de otras cuando las
diferencias son importantes. El segundo número indica el nivel en que se encuentra dicha versión.
Si es un número impar quiere decir que es una versión de desarrollo con lo cual se nos avisa de
que ciertos componentes del núcleo están en fase de prueba, si es par se considera una versión
estable. El último número identifica el número de revisión para dicha versión del sistema
operativo, suele ser debido a la corrección de pequeños problemas o al añadir algunos detalles
que anteriormente no se contemplaba con lo cual no implica un cambio muy grande en el núcleo.
Como ejemplo sirva la versión de LINUX con la que ha sido desarrollado este trabajo, la última
estable hasta hace poco tiempo, su número es 1.2.13, esto es, la versión 1 en su nivel 2 (estable) y
la revisión número 13 de la misma en éste caso fue la última.
Hay que señalar que LINUX no sería lo que es sin la aportación de la Free Software Foundation y
todo el software desarrollado bajo el soporte de esta asociación así como la distribución del UNIX
de Berkley (BSD), tanto en programas transportados como en programas diseñados para este que
forman parte de algunas distribuciones del LINUX.
Redes, Concepto, Internet:
Las redes están formadas por conexiones entre grupos de ordenador y dispositivos asociados que
permiten a los usuarios la transferencia electrónica de información. La red de área local,
representada en la parte izquierda, es un ejemplo de la configuración utilizada en muchas oficinas
y empresas. Las diferentes ordenador se denominan estaciones de trabajo y se comunican entre sí
a través de un cable o línea telefónica conectada a los servidores. Éstos son ordenador como las
estaciones de trabajo, pero poseen funciones administrativas y están dedicados en exclusiva a
supervisar y controlar el acceso de las estaciones de trabajo a la red y a los recursos compartidos
(como las impresoras). La línea roja representa una conexión principal entre servidores de red; la
línea azul muestra las conexiones locales. Un módem (modulador/demodulador) permite a El
ordenador transferir información a través de las líneas telefónicas normales. El módem convierte
las señales digitales a analógicas y viceversa, y permite la comunicación entre ordenador muy
distantes entre sí. Las redes informáticas se han vuelto cada vez más importantes en el desarrollo
de la tecnología de ordenador. Las redes son grupos de ordenador interconectados mediante
sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las
redes permiten que El ordenador conectadas intercambien rápidamente información y, en algunos
casos, compartan una carga de trabajo, con lo que muchas ordenador pueden cooperar en la
realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte
lógico que acelerarán los dos procesos mencionados.
Internet, interconexión de redes informáticas que permite a El ordenador conectadas comunicarse
directamente. El término suele referirse a una interconexión en particular, de carácter planetario y
abierto al público, que conecta redes informáticas de organismos oficiales, educativos y
empresariales. También existen sistemas de redes más pequeños llamadosintranet, generalmente
para el uso de una única organización.
La tecnología de Internet es una precursora de la llamada 'superautopista de la información',
un objetivo teórico de las comunicaciones informáticas que permitiría proporcionar a
colegios, bibliotecas, empresas y hogares acceso universal a una información de calidad que
eduque, informe y entretenga. A principios de 1996 estaban conectadas a Internet más de 25
millones de ordenador en más de 180 países, y la cifra sigue en aumento.
Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador especial por
cada red, conocido como gateway. Las interconexiones entre gateways se efectúan a través de
diversas vías de comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por
radio. Pueden añadirse redes adicionales conectando nuevas puertas. La información que debe
enviarse a una máquina remota se etiqueta con la dirección computerizada de dicha máquina.
Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de
dirección (Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por
ejemplo 123.45.67.89. Otro formato describe el nombre del ordenador de destino y otras
informaciones para el encaminamiento, por ejemplo 'mayor.dia.fi.upm.es'. Las redes situadas
fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar)
para Argentina. Dentro de Estados Unidos, el sufijo anterior especifica el tipo de organización a
que pertenece la red informática en cuestión, que por ejemplo puede ser una institución educativa
(.edu), un centro militar (.mil), una oficina del Gobierno (.gov) o una organización sin ánimo de
lucro (.org).
Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es
encaminada de puerta en puerta hasta que llega a la red local que contiene la máquina de destino.
Internet no tiene un control central, es decir, ningún ordenador individual que dirija el flujo de
información. Esto diferencia a Internet y a los sistemas de redes semejantes de otros tipos de
servicios informáticos de red como CompuServe, America Online o Microsoft Network.
Procesador de textos
aplicación utilizada para la manipulación de documentos basados en texto. Es el equivalente
electrónico del papel, el bolígrafo, la máquina de escribir, el borrador y el diccionario.
Dependiendo del programa y el equipo que se use, los procesadores de textos pueden mostrar los
documentos bien en modo texto, usando selección de texto, subrayado o colores para representar
cursiva, negrita y otros formatos, o bien pueden mostrarlos en modo WYSIWYG, en el que los
formatos y las distintas fuentes aparecen en la pantalla tal y como lo harán en la página impresa.
Todos los procesadores de texto ofrecen funciones para dar formato a los documentos, como
cambios de tipo de letra, presentación de página, sangría de párrafos y similares. Muchos
procesadores de textos pueden también comprobar la ortografía, encontrar sinónimos,
incorporar gráficos creados en otros programas, alinear correctamente fórmulas matemáticas,
crear e imprimir tipos de letras estándar, realizar cálculos, mostrar documentos en pantalla en
varias ventanas y permitir a los usuarios realizar macros que simplifican operaciones difíciles o
repetitivas.
Hoja de cálculo
programa de aplicación utilizado normalmente en tareas de creación de presupuestos o
previsiones, y en otras tareas financieras. En un programa de hoja de cálculo, los datos y las
fórmulas necesarios se introducen en formularios tabulares (hojas de cálculo u hojas de trabajo), y
se utilizan para analizar, controlar, planificar o evaluar el impacto de los cambios reales o
propuestos sobre una estrategia económica. Los programas de hoja de cálculo usan filas, columnas
y celdas. Cada celda puede contener texto, datos numéricos o una fórmula que
use valores existentes en otras celdas para hacer un cálculo determinado. Para facilitar los
cálculos, estos programas incluyen funciones incorporadas que realizan operaciones estándar.
Dependiendo del programa, una sola hoja de cálculo puede contener miles o millones de celdas.
Algunos programas de hoja de cálculo permiten también vincular una hoja de cálculo a otra que
contenga información relacionada y pueden actualizar de forma automática los datos de las hojas
vinculadas. Los programas de hoja de cálculo pueden incluir también utilidades de macros; algunas
se pueden utilizar para crear y ordenar bases de datos. Los programas de hoja de cálculo cuentan
por lo general con capacidades gráficas para imprimir sus resultados.
Componentes
Artículo principal: Arquitectura de ordenador
Las tecnologías utilizadas en ordenador digitales han evolucionado mucho desde la aparición de
los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von
Neumann, publicada por John von Neumann a principios de esa década, que otros autores
atribuyen a John Presper Eckert y John William Mauchly.
La arquitectura de Von Neumann describe un ordenador con cuatro (4) secciones principales: la
unidad aritmético lógica, la unidad de control, la memoria primaria, principal o central, y
los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de
conductores denominados buses.
Unidad central de procesamiento
Artículo principal: Unidad central de procesamiento
La unidad central de procesamiento (CPU, por sus siglas del inglés: Central Processing Unit) consta
de manera básica de los siguientes tres elementos:
Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada
de la unidad de control; D es un estado de la salida.
La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo
diseñado y construido para llevar a cabo las operaciones elementales como las
operaciones aritméticas (suma, resta, ...), operacioneslógicas (Y, O, NO), y operaciones de
comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la
instrucción que el ordenador va a realizar en ese momento; recupera la información poniéndola
en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones
apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente
instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una
instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en
otra posición de la memoria).
Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general,
de propósito específico.
Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades
adicionales como la unidad de coma flotante.
Memoria primaria
La memoria principal (MP), conocida como memoria de acceso aleatorio (RAM, por sus siglas del
inglés: Random-AccessMemory), es una secuencia de celdas de almacenamiento numeradas,
donde cada una es un bit o unidad de información. La instrucción es la información necesaria para
realizar lo que se desea con el ordenador. Las «celdas» contienen datos que se necesitan para
llevar a cabo las instrucciones, con el ordenador. El número de celdas varían mucho de ordenador
a ordenador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los
relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos,
matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de
celdas en un solo chip se subdividen enmemoria estática (SRAM) con seis transistores por bit y la
mucho más utilizada memoria dinámica (DRAM) un transistor y un condensador por bit. En
general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a
una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
Periféricos de Entrada, de Salida o de Entrada/Salida
Los dispositivos de Entrada/Salida (E/S) sirven a El ordenador para obtener información del mundo
exterior y/o comunicar los resultados generados por el ordenador al exterior. Hay una gama muy
extensa de dispositivos E/S comoteclados, monitores, unidades de disco flexible o cámaras web.
Buses
Las tres unidades básicas en un ordenador: la CPU, la MP y el subsistema de E/S, están
comunicadas entre sí porbuses o canales de comunicación:
 Bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere
acceder,
 Bus de control, básicamente para seleccionar la operación a realizar sobre el dato
(principalmente lectura, escritura o modificación) y desarrollar
 Bus de datos, por donde circulan los datos.
Otros conceptos
En la actualidad se puede tener la impresión de que los ordenadores están ejecutando varios
programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice
el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras
un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus
instrucciones. Esto crea la ilusión de que se están ejecutando varios programas
simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la
película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el
programa que generalmente controla el reparto del tiempo. El procesamiento simultáneo viene
con ordenador de más de un CPU, lo que da origen al multiprocesamiento.
El sistema operativo es una especie de caja de herramientas llena de utilerías que sirven para
decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes se utilizan (memoria
o dispositivos E/S). El sistema operativo tiene otras funciones que ofrecer a otros programas,
como los códigos que sirven a los programadores, escribir programas para una máquina sin
necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.
A 2015 se están empezando a incluir en las distribuciones donde se incluye el sistema
operativo, algunos programas muy usados, debido a que es ésta una manera económica de
distribuirlos. No es extraño que un sistema operativo incluya navegadores
de Internet, procesadores de texto, programas de correo electrónico, interfaces de red,
reproductores de películas y otros programas que antes se tenían que conseguir e instalar
separadamente.
Los primeros ordenadores digitales, de gran tamaño y coste, se utilizaban principalmente para
hacer cálculos científicos.ENIAC, uno de los primeros ordenadores, calculaba densidades de
neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer
ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de
generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría
jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también usó los
ordenadores para automatizar muchas de las tareas de recolección y procesamiento de datos,
que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los
inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar
los ordenadores para hacer sus propios análisis. El descenso continuo de los precios de los
ordenadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las
organizaciones y los gobiernos empezaron a emplear un gran número de pequeños
ordenadores para realizar tareas que antes eran hechas por ordenadores centrales grandes y
costosos. La reunión de varios pequeños ordenadores en un solo lugar se llamabatorre de
servidores[cita requerida].
Con la invención del microprocesador en 1970, fue posible fabricar ordenadores muy baratos.
Nacen los ordenadores personales (PC), los que se hicieron famosos para llevar a cabo
diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades
y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediantecorreo
electrónico e Internet. Sin embargo, la gran disponibilidad de ordenadores y su fácil
adaptación a las necesidades de cada persona, han hecho que se utilicen para varios
propósitos.
Al mismo tiempo, los pequeños ordenadores fueron casi siempre con una programación fija,
empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la
maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los
aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas
como los sistemas de freno antibloqueo en los coches. A principios del siglo XXI, la mayoría
de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las
líneas de producción de las fábricas funcionan con un ordenador. La mayoría de los ingenieros
piensa que esta tendencia va a continuar.
Hacia finales de siglo XX y comienzos del XXI, los ordenadores personales son usados tanto
para la investigación como para el entretenimiento (videojuegos), pero los grandes
ordenadores todavía sirven para cálculos matemáticos complejos y para otros usos de la
ciencia, tecnología, astronomía, medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o ordenador
personal y los llamadossuperordenadores sea la Workstation o estación de trabajo. Este
término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento
digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo
(traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a
su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y
accesibilidad del usuario bajo programas y software profesional y especial, permiten
desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Una Workstation es,
en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y
rendimiento superior a los equipos PC convencionales, que aún tienen componentes de
elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de
sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que
reclama, junto con las exigencias del usuario, el diseño final de la Workstation.[cita requerida]
Etimología de la palabra ordenador
PC con interfaz táctil.
La palabra españoEl ordenador proviene del término francés ordinateur, en referencia a Dios que
pone orden en el mundo ("Dieu qui met de l'ordre dans le monde").8 En parte por cuestiones de
marketing, puesto que la descripción realizada por IBM para su introducción en Francia en 1954
situaba las capacidades de actuación de la máquina cerca de la omnipotencia, idea equivocada
que perdura hoy en día al considerar que la máquina universal de Turing es capaz de computar
absolutamente todo.9 En 1984, académicos franceses reconocieron, en el debateLes jeunes, la
technique et nous, que el uso de este sustantivo es incorrecto, porque la función de un ordenador
es procesar datos, no dar órdenes.10 Mientras que otros, como el catedrático de filología latina
Jacques Perret, conocedores del origen religioso del término, lo consideran más correcto que las
alternativas.8
El uso de la palabra ordinateur se ha exportado a los idiomas de España: el aragonés, el asturiano,
el gallego, elcastellano, el catalán y el euskera. El español que se habla en América, así como los
demás idiomas europeos, como el portugués, el alemán y el neerlandés, utilizan términos
derivados del latín computare 'calcular'.
En la historia de la humanidad se han construido distintos tipos de instrumentos de ayuda para
que el hombre pudiera calcular, hasta llegar a El ordenador digital moderna. Aquí mostraremos
algunos hitos importantes en esta historia. Se muestra la evolución de El ordenador, así como de
los dispositivos para entrada/salida y los medios de comunicación de datos.
La primer persona en construir una máquina de calcular fue el francés Blaise Pascal (1642). Era una
máquina mecánica que sólo servía para sumar.
En 1666 Samuel Morbard crea una máquina para sumar y restar. Ya en 1674, el barón Gottfired
Wilhelm von Leibniz construye en Alemania una calculadora mecánica que no solo suma y resta,
sino que también puede efectuar operaciones de multiplicación y división. Todas estas
calculadoras eran mecánicas, en base a movimientos de engranajes, y los datos se ingresaban por
medio de husos giratorios.
En el año 1801, Jacquard inventa una tarjeta de cartón a la que hace agujeros que se utiliza para
"programar" una máquina de tejer.
Más adelante (1822), Charles Babbage, un profesor de matemática de la Universidad de
Cambridge diseña y construye la "máquina de diferencias". Este era un dispositivo mecánico que
podía sumar y restar, y se usa para hacer cálculos por medio del método de diferencias finitas
usando (en concreto fue usada para generar tablas de navegación). El resultado se registra en un
plato de cobre (en forma de disco) en el que se perforan los resultados (de forma similar a la
máquina de tejer de Jacquard).
Esta calculadora funcionaba correctamente, pero sólo podía ejecutar un único algoritmo. Babbage
dedicó tiempo y esfuerzos económicos en el diseño de un ordenador de uso general, llamada la
"Máquina Analítica" (1834). Esta máquina, que fue diseñada generalización de la máquina de
diferencias, tenía cuatro componentes básicos:
Un "almacenamiento" (memoria) con capacidad para guardar 50.000 dígitos decimales. Esta se
usaba para guardar estados intermedios, variables y resultados. Una "unidad de cómputo": puede
recibir órdenes para hacer las cuatro operaciones básicas, y puede almacenar resultados en la
memoria.
Una unidad de entrada (con tarjetas perforadas). La unidad de entrada almacenaba el conjunto de
órdenes que se deseaba ejecutar.
Una unidad de salida: tarjetas perforadas y salida impresa.
Perforando distintos conjuntos de instrucciones en las tarjetas de entrada, era posible que la
máquina realizara distintas operaciones.
Como esta ordenador debía ser programada, Babbage contrató a Ada Augusta Lovelace (hija de
Lord Byron), que se convirtió así en la primer programadora de la historia (1842).
El proyecto de Babbage nunca pudo ser concluido debido a problemas con el hardware, que no
pudieron ser solucionados hasta casi un siglo más tarde. Durante este tiempo, hubo diversos
avances que permitieron el posterior desarrollo de la computación digital.
En el año 1844, Samuel Morse envía un mensaje en telégrafo desde Washington a Baltimore
(EE.UU.). En 1854, George Boole publica "Una investigación sobre las leyes del pensamiento",
describiendo un sistema de lógica simbólica y razonamiento (que sería la base del diseño de
ordenador digitales).
En el año 1858 se tiende el primer cable telegráfico que cruza el Atlántico. En 1876, Alexander
Graham Bell inventa y patenta el Teléfono.
En 1889, Herman Hollerith gana, con su compañía, llamada the Electric Tabulating System, una
licitación para el censo de los EE.UU. de 1890. En el año 1893 se comienza a vender la primer
calculadora mecánica de cuatro funciones.
En el año 1895, el italiano Guglielmo Marconi emite la primer señal de radio. En el año 1896,
Hollerith establece la compañía Tabulating Machine Company.
En el año 1904, John A. Fleming patenta la válvula de vacío, que permite mejorar las
comunicaciones por radio. En el año 1908, el británico Campbell Swinton describe un método de
escaneo electrónico que sería utilizado posteriormente en el tubo de rayos catódicos de los
televisores.
En el año 1911, la Tabulating Machine Company de Hollerith se une con otras dos compañías, y
forman la Calculating, Tabulating and Recording Company (CTR & Co.). En el año 1919, dos físicos
de los EE.UU., Eccles y Jordan, inventan el circuito de conmutación electrónica llamado flip-flop,
que sería crítico para los sistemas de cómputo electrónico. En el año 1920, a su vez, el checo Karel
Cepel utiliza por primera vez la palabra "Robot" (que significa "Trabajo obligatorio") en una obra
de teatro.
En 1924, T.J. Watson. cambia el nombre de la CRT & Co. por IBM (International Business
Machines). En 1928 se usan osciladores de cuarzo para lograr alta precisión en mecanismos de
medición de tiempo. Durante esta década retoma vigor el desarrollo de máquinas para realizar
cálculos. Hartree construyó un "analizador diferencial", que usaba como principio básico un disco
rotando en contacto con otro. A una velocidad de motor constante, la distancia transcurrida sería
la integral en el tiempo de la relación de variación.
En 1930, en el MIT (EE.UU.), Vannevar Bush construye otro analizador diferencial. Este era un
dispositivo electromecánico que podía usarse para integrar ecuaciones diferenciales. La precisión
de esta máquina no era alta (5 en 10.000), y tomaba entre 10 y 20 minutos integrar una ecuación
promedio. A pesar de esto, al comparar con la velocidad humana para realizar las mismas tareas,
una ecuación promedio puede constar de aproximadamente unas 750 multiplicaciones, lo que
hubiera tomado a un hombre unas 7 horas.
Los siguientes avances significativos fueron en la década del 30, en Alemania. En 1934, Konrad
Zuse, un estudiante de ingeniería, comienza a construir una máquina de calcular electromecánica.
Esta es construida en base a relés, con el objetivo de lograr mayor precisión que en las
calculadoras existentes hasta ese momento.
En 1935, IBM empieza a vender una máquina de escribir eléctrica (la 601) que también servía
como calculadora en base a tarjetas perforadas.
En 1936 Konrad Zuse termina de construir (a los 26 años) El ordenador Z1 en la sala de la casa de
sus padres. Su representación numérica usaba punto flotante binario. Nunca estuvo operativa
debido a la precisión limitada de las partes mecánicas, lo que provocó trabajo posterior de Zuse
para mejorarla.
Un tiempo más adelante (1937), en los EE.UU., John Atanasoff (de la Iowa State University) y
George Stibbitz (de los Bell Labs) comienzan a diseñar (cada uno por su cuenta) calculadoras
digitales electromecánicas basadas en relés. El ordenador de Atanasoff era muy avanzada para la
época: usaba aritmética binaria, y tenía una memoria de capacitores (que precisa refrescos cada
determinado tiempo para mantener sus valores, exactamente de la misma forma que lo hacen los
chips actuales de memoria dinámica). Esta ordenador nunca llegó a estar operativa, al igual que la
de Babbage, por problemas de tecnología.
El ordenador de Stibbitz era más primitiva, pero llegó a estar operativa.
También en el año 1937, el matemático británico Alan Turing presenta el trabajo "Acerca de
números computables", presentando el concepto de su máquina teórica.
En el mismo año Howard Aiken, un profesor de física en Harvard, envía a a IBM una propuesta
para construir una máquina de cálculo automático. Esta debía ser capaz de hacer las cuatro
operaciones aritméticas, y operar en una secuencia predeterminada. El trabajo de Aiken estuvo
basado en el de Babbage, y la propuesta trataba de construir el diseño de Babbage usando relés
en lugar de engranajes.
La primer ordenador construida por Aiken fue la Harvard Mark I (también llamada IBM ASSC) fue
terminada recién en 1944. Esta ordenador tenía dispositivos para almacenar y operar números
que eran cargados durante un cálculo o que eran resultados de operaciones previas. Tenía 60
registros constantes, cada uno consistente de 24 conmutadores que podían inicializarse
manualmente a una posición decimal (de cero a 9). Había 23 dígitos significativos, y la posición 24
valía 0 o 9, indicando números positivos o negativos. Había, además, 72 registros de
almacenamiento donde se hacían las operaciones aritméticas. La entrada y la salida consistían de
cintas de papel perforado, que podían montarse en teletipos para obtener resultados impresos. El
tiempo requerido para ejecutar una instrucción era de 6 segundos.
Originalmente El ordenador no tenía circuitos de bifurcación (condicional o incondicional), los que
fueron agregados más adelante. También se agregaron una unidad de multiplicación/división, más
almacenamiento, registros y una unidad de cinta. Los datos estaban completamente separados de
las instrucciones. Esta ordenador estuvo activa desde 1944 hasta 15 años más tarde, en que fue
desmantelada.
Los programadores solían ser matemáticos que trabajaban con una cartilla de operaciones. Al
tiempo era común que las partes de los programas que eran necesarias una y otra vez hubieran
sido escritas en libros de apuntes, dando origen a las bibliotecas de programas. Años más tarde,
estas prácticas se extendieron a conjuntos de programas o rutinas (llamados bibliotecas de
subrutinas), pero sus orígenes se remontan a estas épocas.
Simultáneamente, Zuse continuaba trabajando en Alemania. En 1938 comenzó a trabajar en El
ordenador Z2, que estuvo operativa en 1940. Esta era una máquina puramente de relés.
Reemplazó las partes mecánicas no funcionales de la Z1 por relés.
En 1941, terminó la Z3, que era un ordenador programable electromecánica. Contenía 2600 relés,
y algunos expertos la consideran como la primer ordenador programable de la historia.
Para el momento en que Howard Aiken había terminado la Mark II, El ordenador basadas en relés
ya eran obsoletas. El principal estímulo para desarrollar ordenador electrónicas estuvo en la
segunda guerra mundial. Los submarinos alemanes, que destruían a la flota inglesa, se
comunicaban por radio con sus almirantes en Berlín. Los británicos podían captar las señales de
radio, pero los mensajes estaban encriptados usando un dispositivo llamado ENIGMA. La
inteligencia británica había podido obtener una máquina ENIGMA robada a los alemanes, pero
para quebrar los códigos era necesaria una gran cantidad de cálculo, que debía hacerse a alta
velocidad.
Para decodificar estos mensajes, el gobierno británico construyó un laboratorio para construir un
ordenador, llamada COLOSSUS. Alan Turing, T. Flowers y M. Newman construyeron esta
ordenador (1943), que fue la primer ordenador electrónica de la historia. Estaba construida de
válvulas de vacío y no tenía dispositivos electromecánicos. A pesar de ello, al ser un secreto
militar, su construcción no tuvo ninguna influencia posterior.
En EE.UU., simultáneamente, había interés de la armada para obtener tablas que pudieran usarse
para mejorar la precisión en los disparos de artillería pesada (en particular para armas antiaéreas),
ya que hacerlos manualmente era tedioso y frecuentemente con errores.
En 1943, John Mauchly y uno de sus alumnos, un joven ingeniero llamado John P. Eckert obtienen
un subsidio de la armada para construir un ordenador electrónica, que llamaron Electronic
Numerical Integrator and Computer (ENIAC).
John Mauchly propuso construir un ordenador electrónica digital para reemplazar al analizador
diferencial, dando dos ventajas principales: la velocidad de la electrónica, y la precisión del
principio digital. El ordenador consistía de 18000 válvulas de vacío y 1500 relés. Consumía 140
KW/h y pesaba 30 toneladas.
Su hardware electrónico era 10 veces más rápidos que los del analizador diferencial y 100 veces
más rápido que un calculista humano: podía hacer 5000 sumas por segundo. El ordenador era
programada por completo usando una técnica similar a los tableros de enchufes de las antiguas
máquinas de calcular (enciendiendo y apagando llaves y enchufando y desenchufando cables).
Esta ordenador no era binaria, sino decimal: los números se representaban en forma decimal, y la
aritmética se hacía en el sistema decimal. Tenía 20 registros que podían usarse como un
acumulador, cada uno de los cuales almacenaba números decimales de 10 dígitos.
Luego que la ENIAC estuvo operativa, y se vio que tomaba tiempo considerable en preparar un
programa e incorporarlo en el cableado, la máquina se modificó de tal forma que una secuencia de
instrucciones pudiera leerse como una secuencia de números de dos dígitos que se ponían en una
tabla de funciones. Para mantener la lógica simple, un solo registro quedó de acumulador, y los
demás fueron usados como memoria.
Como mencionamos, mientras la ENIAC era construida, en 1944 Mark I se puso operativa. En el
mismo año, prácticamente todas las máquinas de Zuse fueron destruidas por el bombardeo de los
aliados a Berlín , por ende, su trabajo no tuvo influencia en máquinas posteriores. El ordenador Z4,
que entró en operación en 1945, sobrevivió al bombardeo y ayudó al desarrollo de postguerra de
ordenador científicas en Alemania. Contenía unos 2200 relés y trabajaba con números binarios de
punto flotante normalizado con una mantisa de 22 bits. Una multiplicación tomaba entre 2.5 y 3
segundos. El programa se leía de dos lectoras de cinta perforada, y seguía teniendo memoria
mecánica (para almacenar hasta 64 números).
En este mismo año, John Von Neumann introduce el concepto de programa almacenado. Una de
las cosas que le molestaba de El ordenador era que su programación con llaves y cables era lenta,
tediosa e inflexible. Propuso que los programas se almacenaran de forma digital en la memoria de
El ordenador, junto con los datos. Por otro lado, se dio cuenta que la aritmética decimal usada por
la ENIAC (donde cada dígito era representado por 10 válvulas de vacío - una prendida y 9 apagadas
-) podía reemplazarse usando aritmética binaria. Este diseño, conocido como Arquitectura de Von
Neumann, ha sido la base para casi todas El ordenador digitales.
En 1945, Eckert y Mauchly comienzan a trabajar en un sucesor de la ENIAC, llamada EDVAC
(Electronic Discrete Variable Automatic Computer). También en este año, Aiken comienza a
construir la Mark II. En el mismo año, trabajando con un prototipo de la Mark II, Grace Murray
Hopper encuentra el primer "bug": una polilla que provocó una falla en un relé.
En 1946, la ENIAC estaba operativa, funcionando en la Universidad de Pennsylvania. A pesar que
no pudo ser usada para su propósito original de cálculos de balística, la finalización de la ENIAC
provocó una explosión de interés de desarrollo de ordenador electrónicas. Luego que la guerra
terminó, comenzó una nueva era para la computación científica. Los recursos dedicados a la
guerra fueron liberados y dedicados a la ciencia básica. En particular, el departamento de Marina y
la Comisión de Energía Atómica de los EE.UU. decidieron continuar soportando el desarrollo de
ordenador. Las principales aplicaciones eran la predicción numérica del tiempo, la mecánica de
fluidos, la aviónica, el estudio de resistencia de los barcos a las olas, el estudio de partículas, la
energía nuclear, el cálculos de reactores, el modelado de automóviles, etc.
En 1947, la Mark II estuvo operativa en Harvard. En el mismo año se introduce el tambor
magnético, un dispositivo de acceso aleatorio que puede usarse como almacenamiento para
ordenador. En este mismo año William Shockley, John Bardeen y Walter Brattain, de los
laboratorios Bell, inventaron la resistencia de transferencia (transfer resistor), comúnmente
conocida como Transistor. El concepto estuvo basado en el hecho de que el flujo de electricidad a
través de un sólido (como el silicio) puede controlarse agregándose impurezas con las
configuraciones electrónicas adecuadas. Las válvulas de vacío requieren cables, platos de metal,
una cápsula de vidrio y vacío; en cambio, el transistor es un dispositivo de estado sólido.
En 1948, Claude Shannon presenta su "Teoría matemática de las comunicaciones". En el mismo
año, entra en operación la Manchester Mark I, la primer ordenador de programa almacenado. Fue
diseñada por F. C. Williams y T. Kilburn en la Universidad de Manchester, y era un modelo
experimental para probar una memoria basada en válvulas de vacío.
En 1949, Jay Forrester construye El ordenador Whirlwind en el MIT. Contenía 5000 válvulas,
palabras de 16 bits, y estaba específicamente diseñada para controlar dispositivos en tiempo real.
En el mismo año, la EDSAC (Electronic Delayed Storage Automatic Computer) estuvo operativa en
Cambridge. Era un ordenador de programa almacenado, que fue diseñada por Maurice Wilkes.
Esta fue propuesta especialmente para resolver problemas reales, y pudo resolver variedad de
cálculos. Su primer programa (una tabla de raíces cuadradas) ejecutó el 6 de Mayo de 1949, y
siguió operando hasta 1958. La EDSAC tenía 512 palabras de 17 bits.
El diseño de la EDSAC era bastante útil para el usuario. Un botón de inicio activaba un uniselector
que cargaba un programa que estaba cableado a la Memoria, y este programa cargaba programas
que estaban escritos en cinta de papel en la memoria, y se comenzaba a ejecutar. En esta época
los cálculos se hacían bit por bit.
En 1949, el laboratorio de Los Alamos, se empieza a construir El ordenador MANIAC I, que se
terminó en Marzo de 1952. Esta ordenador tenía un tambor auxiliar de 10.000 palabras de 40 bits
en paralelo, y la unidad de entrada/salida tenía una cinta de papel de 5 canales, y un drive de cinta
de un solo canal. También tenía una impresora de línea.
Se dice que en este año, John Mauchly desarrolla el lenguaje "Short Order Code", que sería el
primer lenguaje de programación de alto nivel.
En 1950 la EDVAC se pone operativa, pero la Remington Rand Corporation (que se transformaría
mas adelante en la Unisys Corporation) compra la Eckert-Mauchly Computer Corporation.
En 1951, Jay Forrester presenta, dentro del proyecto Whirlwind, una memoria no volátil: la
memoria de núcleos, que sería ampliamente difundida.
La primer UNIVAC I (Universal Automatic Computer) es puesta en funcionamiento en la Oficina de
Censos. Esta ordenador pasó a ser la número uno en el mercado comercial.
En el mismo año, Grace Murray Hopper construye el primer compilador, llamado A-0. También en
este año, Maurice Wilkes origina el concepto de microprogramación, una técnica que provee una
aproximación ordenada para diseñar la unidad de control de un ordenador.
En 1952, Von Neumann, junto con Herman Goldstine, terminan de construir, en el Instituto de
Estudios Avanzados de Princeton (IAS - Institute of Advanced Studies) El ordenador IAS. Esta
ordenador también fue construida con el concepto de programa almacenado, y tenía otras
características importantes.
Por un lado, el diseño general de la máquina era el siguiente:
Existen cinco componentes básicos:
La memoria, la Unidad Aritmético/Lógica, la Unidad de Control de Programas, y el equipamiento
de Entrada/Salida.
La Unidad Aritmético-Lógica ejecuta las operaciones básicas, y contiene un registro acumulador de
40 bits (que también se usa se usa para entrada/salida). Las operaciones se hacen sobre datos
binarios.
La memoria almacena datos e instrucciones, y consistía de 4096 palabras de 40 bits. Cada palabra
contenía dos instrucciones de 20 bits, o un entero con 39 bits y signo. Las instrucciones usaban 8
bits para el tipo de instrucciones, y 12 bits para especificar direcciones de memoria.
La Unidad de control interpreta las instrucciones en memoria, y hace que se ejecuten. El
equipamiento de entrada/salida era operado por la Unidad de Control.
El ordenador opera de la siguiente forma:
1. La Unidad de Control sigue el flujo del programa y hace que se ejecute;
2. La salida de datos se hace a través del registro acumulador;
3. Se usa aritmética binaria
4. La ALU hace las operaciones aritmético/lógicas usando lógica bit-parallel.
En este año también se pone operativa la EDVAC , así como la ILLIAC I (de la Universidad de Illinois)
y la ORDVAC (construida por la armada): todas usan la arquitectura de Von Neumann. La ILLIAC
(una copia mejorada de la ORDVAC) tenía 1024 palabras de 40 bits. En estas máquinas una suma
tardaba nos 72 microsegundos, mientras que las multiplicaciones de punto fijo tenían un
promedio de unos 700 microsegundos.
Durante todos estos desarrollos, IBM se había transformado en una pequeña compañía que
producía perforadoras de tarjetas y ordenador mecánicas de tarjetas. IBM no se interesó en
producir ordenador, hasta que en 1952 produjo la IBM 701. Esta ordenador tenía 2K de palabras
de 36 bits, con dos instrucciones por palabras. Fue la primera de una serie de ordenador científicas
que dominaron la industria en la década siguiente.
En 1955 apareció la 704, que tenía 4K de memoria y hardware de punto flotante.
En 1953, la IBM 650 sale a la venta, y fue la primer ordenador fabricada en serie.
La primer ordenador puramente basada en transistores fue la TX-0 (Transitorized eXperimental
computer 0), en el MIT. Esta fue un dispositivo usado para probar la TX-2. Uno de los ingenieros
trabajando en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía
DEC (Digital Equipment Company).
En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primer ordenador
comercial UNIVAC puramente basada en transistores.
En 1957 la EDSAC 2 estuvo operativa. Era un ordenador con 1024 palabras de 40 bits, con dos
órdenes por palabras. Estaba hecha con válvulas, y la memoria usaba núcleos de ferrita. La ALU
era bit-sliced. Se incluyeron operaciones de punto flotante para hacer los cálculos más simples,
que usaba una fracción de 32 bits y un exponente de 8 bits. El ordenador era microprogramada,
con una ROM 768 palabras. La ROM permitía que diversas subrutinas útiles (seno, coseno,
logaritmos, exponenciales) estuvieran siempre disponibles. La memoria fija incluía un
ensamblador y un conjunto de subrutinas de impresión que permitían hacer entrada/salida.
Los microprogramas permitieron que las órdenes pudieran ser diseñadas cuidadosamente, menos
dependientes de accidentes del hardware. El ordenador ejecutaba una instrucción simple en unos
20 microsegundos, y una multiplicación precisaba 250 microsegundos. La lectora de papel leía
1000 caracteres por segundo, y la perforadora perforaba 300 caracteres por segundo. La salida se
seguía imprimiendo en una telelimpresora.
En el mismo año, El ordenador ERMETH se construyó en el ETH en Zurich. Tenía palabras de 16
dígitos decimales, cada uno de los cuales contenía dos instrucciones y un número de punto fijo de
14 dígitos o un número de punto flotante con una mantisa de 11 dígitos. Una suma de punto
flotante tomaba 4 milisegundos; una multiplicación, 18 milisegundos. Tenía un tambor magnético
que podía almacenar 1000 palabras. La máquina tenía unos 1900 válvulas de vacío y unos 7000
diodos de germanio.
También en 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN
(FORmula TRANslator).
En 1958 se funda la compañía Digital, como fue mencionado principalmente. Inicialmente la DEC
sólo vendía plaquetas con pequeños circuitos. En el mismo año, se producen los primeros circuitos
integrados basados en semiconductores (en las compañías Fairchild y Texas Instruments), y
también el proyecto Whirlwind se extiende para producir un sistema de control de tráfico aéreo.
En 1959 se forma el Comité en Lenguajes de sistemas de Datos (CODASYL - Commitee On Data
Systems Language) para crear el lenguaje COBOL (Common Business Oriented Language), y John
Mc. Carthy desarrolla el Lisp (List Processing) para aplicaciones de inteligencia artificial.
En 1960, DEC introduce su primer ordenador: la PDP-1. Esta ordenador fue diseñada tomando
como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo de ciclo del
procesador de aproximadamente 5 microsegundos (en comparación con la IBM 7090 que era una
máquina de alta performance en la cual un ciclo procesador era de 2.5 microsegundos y su costo
era de millones de dólares). Fue la primer máquina con monitor y teclado, marcando el comienzo
de las miniordenador.
En 1961, Fernando Corbató en el MIT desarrolla una forma que múltiples usuarios puedan
compartir el tiempo del procesador. También se patenta el primer robot industrial. En 1962, Steve
Russell del M.I.T. crea el Spacewar (el primer video juego). En 1963, el sistema de defensa SAGE es
puesto en marcha, gracias al cual se pudieron lograr muchos avances en la industria de El
ordenador.
En 1964, aparece el primer modelo de El ordenador IBM 360. IBM había construido una versión
con transistores de la 709, llamada 7090, y posteriormente la 7094. Esta tenía un ciclo de
instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas ordenador dominaron la
computación científica en los '60s.
IBM también vendía un ordenador orientada a negocios llamada 1401. Esta podía leer cintas
magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija.
Tenía 4K de bytes de 8 bits cada uno. Cada byte contenía un caracter de 6 bits, un bit
administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria a
memoria movía datos de la fuente al destino hasta que encontraba el bit de fin de palabra
prendido.
El problema era la incompatibilidad de ambas ordenador: era imposible compartir el software, y
de hecho era necesario tener dos centros de cómputos separados con personal especializado. La
IBM System/360 fue un ordenador diseñada con múltiples propósitos. Era una familia e ordenador
con el mismo lenguaje de máquina, pero mayor potencia. El software escrito en cualquiera de los
modelos ejecutaba directamente en los otros (el único problema era que, al portar un programa
de una versión poderosa a una versión anterior, el programa podía no caber en memoria). Todas
las IBM 360 proveían soporte para multiprogramación. También existían emuladores de otras
ordenador, para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados.
Tenía un espacio de direcciones de 16 megabytes.
En este año se pone en operaciones El ordenador CDC 6600 de la Control Data Corporation,
fundada y diseñada por Seymour Cray. Esta ordenador ejecutaba a una velocidad de 9 Mflops. (es
decir, un orden de magnitud más que la IBM 7094), y es la primer superordenador comercial. El
secreto de su velocidad es que era un ordenador altamente paralela. Tenía varias unidades
funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas
ejecutando en paralelo
(podía haber hasta 10 instrucciones ejecutando a la vez). En este mismo año, Douglas Engelbart
inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el lenguaje BASIC (Beginner's Allpurpose Symbolic Instruction Code).
En 1965, la DEC fabrica la PDP-8, que fue la primer miniordenador con transistores en módulos de
circuitos integrados. Esta tenía un único bus (o sea, un conjunto de cables paralelos para conectar
los componentes de El ordenador, en lugar de las líneas multiplexadas de El ordenador de Von
Neumann tradicionales).
Como fue mencionado, a fines de los años '50, ingenieros en Fairchild Semiconductor Co. y en
Texas Instrument desarrollaron el primer transistor plano, y mas adelante el primer circuito
integrado plano. La invención del circuito integrado reveló el potencial para extender el costo y los
beneficios de operación de los transistores a todos los circuitos producidos en masa. La invención
del circuito integrado permitió que docenas de transistores se pusieran en el mismo chip. Este
empaquetamiento permitió construir ordenador más pequeñas, rápidas y baratas que sus
predecesores con transistores. Las primeras versiones de la IBM 360 eran transistorizadas, pero las
versiones posteriores no solo eran más rápidas y poderosas, sino que fueron construidas en base a
circuitos integrados.
En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito integrado)
cuantificó el crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que los
fabricantes habían duplicado la densidad de los componentes por circuito integrado a intervalos
regulares (un año), y que seguirían haciéndolo mientras el ojo humano pudiera ver.
En 1967, Fairchild introduce un chip que contenía una ALU de 8 bits: el 3800. En 1968, Gordon
Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un principio se dedica a
fabricar chips de memoria. En este mismo año, El ordenador CDC 7600 logra la velocidad de 40
Mflops..
En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet con el fin de
hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la UCLA, UCSB,
SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar el intercambio
entre ordenador y periféricos.
En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la
tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados más pequeños y
baratos. En 1971, Intel fabrica el microprocesador de 4 bits 4004, la primer ordenador en un solo
chip. Su objetivo era ser usado para una calculadora. Ya en 1972, Intel fabrica el 8008, primer
microprocesador de 8 bits (que es reemplazado por el 8080, debido al límite de memoria de 16k
impuesto por los pins en el chip).
En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration) permiten poner
10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año, John Metcalfe propone el
protocolo Ethernet para comunicación en redes locales. En 1975, la primer ordenador personal, la
Altair 8800, aparece en la revista Popular Electronics, explicando cómo construirla. También en
ese año, IBM introduce la primer impresora láser.
En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que consiste
principalmente de un tablero de circuitos. IBM introduce las impresoras a chorro de tinta en ese
mismo año, y Cray Research introduce la Cray 1, una superordenador con una arquitectura
vectorial. También Intel produce el 8085, un 8080 modificado con algunas características extra de
entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era un ordenador de
8 bits comparable al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido
por el 6809 que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits.
En 1977, Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es anunciada
públicamente. En 1978, Intel produce el 8086, una CPU de 16 bits en un chip. Este procesador es
completamente combatible con el 8080, y también lo fue el 8088, que tenía la misma arquitectura
y corría los mismos programas, pero con un bus de 8 bits en lugar de uno de 16, haciéndolo más
lento y barato. En este año DEC introduce la VAX 11/780, un ordenador de 32 bits que se hizo
popular para aplicaciones técnicas y científicas.
En 1979, Motorola introduce el procesador 68000 que sería más adelante el soporte para El
ordenador Macintosh, Atari, Amiga y otras ordenador populares. Este procesador no era
compatible con el 6800 o el 6809. Es un híbrido entre arquitecturas de 16 y 32 bits, y puede
direccionar 16 Mb de memoria. De aquí en más los procesadores 680x0 siguen siendo muy
similares desde el punto de vista del programador, con pocas instrucciones agregadas en cada
versión nueva. También en este año aparecen los videodiscos digitales.
En 1980 se produce la primera ordenador portable: la Osborne 1. David Patterson, en la UC.
Berkeley, introduce el concepto de RISC, y junto con John Hennessy, de Stanford, desarrollan el
concepto.
En 1981 se lanza El ordenador de arquitectura abierta IBM-PC, y un año mas tarde se produce el
primer "clon" de esta ordenador.
Cuarta Generación: Ordenador personales y VLSI (1980 - ).
En la década del '80, fue posible la Integración a Muy Alta Escala (VLSI - Very Large Sacel
Integration) poniendo cientos de miles (y posteriormente millones) de transistores en un chip.
EVOLUCIÓN TECNOLÓGICA DE EL ORDENADOR
Es una máquina que administra datos a través de distintos programas. Básicamente se trata de un
conjunto de Hardware: la parte física y material de la PC., y Software: los datos. Algunas de las
partes más importantes de El ordenador son los siguientes dispositivos: la pantalla o monitor, el
teclado, el mouse, incorporado a la PC. desde el año 1957, distintos dispositivos de
almacenamiento como los discos rígidos etc Historia A través de la historia se han buscado formas
y sistemas para solucionar problemas de manera lo más rápida y eficiente posible. Desde hace
miles de años, existen las operaciones y problemas matemáticas. Lo más normal es hacerlo a
mano, pero hace unos 5.000 años se inventó el ábaco. Con él se permitía hacer cuentas con más
seguridad y menos riesgo de error. Desde los años 1600 hasta 1900 se inventaron diversas
máquinas con este propósito, por ejemplo, Wilhelm Schickard construyó la primera calculadora
mecánica en 1623. Se le llamaba "reloj de cálculo", pues utilizaba piezas de relojería como dientes
y engranajes. Fue Blaise Pascal quien en el siglo XVII con tan solo 19 años de edad inventó la
primera calculadora del mundo. La llamó Pascalina. Este matemático y filósofo francés, ideó una
máquina de sumar sencilla pensando en facilitar la tarea a los recaudadores de impuestos. El
sistema se fue perfeccionando hasta que en el año 1940 se crea la primera calculadora
electromecánica. En la historia de la computación muchas máquinas adquirieron el nombre de su
constructor. En el año 1939 se construye El ordenador ABC que podía resolver ecuaciones
matemáticas. En 1941se desarrolló otro equipo que podía resolver una raíz cuadrada en 3
segundos. En el año 1944 se diseña y construye la MARK I, un aparato de 16 metros de largo y 5
toneladas de peso. Estos equipos fueron superados por la aparición de transistor y la moderna
electrónica. Pero el gran avance de la PC aparece en los años 1970 cuando Steve Jobs crea la
primer microordenador de la empresa APPLE. Se desarrollan grandes unidades de
almacenamiento, microprocesadores más veloces y hastas la Red de Redes: Internet, pero El
ordenador son instrumentos que no tienen autonomía propia porque necesitan ser creadas y
operadas por el hombre. Diferencia con la informática El estudio de la informática comprende el
conjunto de disciplinas científicas y técnicas utilizadas en el procesamiento y administración de la
información. realizados por medios automáticos. Podemos decir, que se trata del estudio de la
administración, circulación transmisión y difusión de la información. Las disciplinas que
comprende son: procesamiento electrónico de datos, análisis de sistemas y programación.
Evolución Desde que en el año 1944 se diseñara la primer ordenador, la MARK I, hasta la fecha la
tecnología no ha dejado de evolucionar en este campo.
Podemos distinguir cinco etapas o generaciones en el desarrollo tecnológico:
Primera Generación Es la comprendida desde la aparición de la Mark I hasta aproximadamente
1960. Se caracterizaban por ser de grandes dimensiones y con poca utilidad, solo desarrollaba
funciones específicas para la que fue diseñada. Sus circuitos estaban formados por “lámparas”
(también llamadas válvulas), las que generaban grandes temperaturas en todo el sistema. Además
las lámparas tenían una vida útil breve.
Segunda generación Es a partir de la década del ’60 con la aparición del “transistor” en reemplazo
de la lámpara. Estor nuevos elementos si bien no trabajaban en frío, la temperatura de operación
no alcanzaba el punto crítico. Su vida útil era más prolongada y cada transistor podía reemplazar a
varias lámparas disminuyendo considerablemente el tamaño de los equipos.
Tercera generación En la década del ´70 se inventa el “circuito integrado”, elemento electrónico
que reemplazaría a los transistores y cumpliría funciones complejas dentro de un circuito eléctrico.
Al reemplazar a los elementos señalados y a algunas etapas de los circuitos tradicionales el
tamaño de El ordenador siguió disminuyéndose notoriamente. Estos nuevos elementos eléctricos
trabajan en frío y su vida útil es prolongada.
Cuarta generación En la década del ’80 se diseña el “procesador”, elemento que reemplazaría a
muchos circuitos integrados y realiza funciones diversas y de alta complejidad. La mayoría de los
procesadores trabajan en frío, excepto los operativos que por su alto rendimiento y complejidad
trabajan con altas temperaturas y deben estar controlador por pequeños ventiladores llamados
“cooler”.
Quinta generación En esta etapa, década del ´90, el desarrollo se evidencia en las performance
estéticas y tamaño de los equipos. Hacen su aparición: las Laptop, Notebook, Palm y otras
novedades.
Tipos de ordenador
Superordenador:
La superordenador es el tipo de ordenador más potente y más rápida que existe en un momento
dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco
tiempo y son dedicadas a una tarea específica. Asimismo son las más caras, sus precios alcanzan
los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial para disipar
el calor que algunos componentes alcanzan a tener.
Unos ejemplos de tareas a las que son expuestas las superordenador son los siguientes:
1.Búsqueda y estudio de la energía y armas nucleares.
2.Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
3. estudio y predicción de tornados.
4.. El estudio y predicción del clima de cualquier parte del mundo.
5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.
6. Debido a su precio, son muy pocas las superordenador que se construyen en un año.
Macroordenador o Mainframes:
Las macroordenador son también conocidas como Mainframes. Los mainframes son grandes,
rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así
como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde
350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más
poderosos que las superordenador porque soportan más programas simultáneamente, aunque las
superordenador pueden ejecutar un solo programa más rápido que un mainframe. En el pasado,
los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio,hoy en día, un
Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, ésto para ocultar
los cientos de cables de los periféricos , y su temperatura tiene que estar controlada.
Miniordenador En 1960 surgió la miniordenador, una versión más pequeña de la
Macroordenador. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que
necesita un Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento. Las
miniordenador, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las
estaciones de trabajo. En general, una miniordenador, es un sistema multiproceso (varios
procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente
se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones
multiusuario.
Microordenador o PC´s
Las microordenador o Ordenador Personales (PC´s) tuvieron su origen con la creación de los
microprocesadores. Un microprocesador es "un ordenador en un chip", o sea un circuito integrado
independiente. Las PC´s son ordenador para uso personal y relativamente son baratas y
actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva de que para
el año de 1981, IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de
ordenador ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que
sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando
procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo
tipo de programas. Existen otros tipos de microordenador, como la Macintosh®, que no son
compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de
uso personal.
En la actualidad existen variados tipos en el diseño de PC´s:
1. Ordenador personales, con el gabinete tipo minitorre, separado del monitor.
2. Ordenador personales portátiles "Laptop" o "Notebook".
3. Ordenador personales más comunes, con el gabinete horizontal, separado del monitor.
4. Ordenador personales que están en una sola unidad compacta el monitor y el CPU.
5. El ordenador "laptops" son aquelEl ordenador que están diseñadas para poder ser
transportadas de un lugar a otro. Se alimentan por medio de baterías recargables, pesan entre 2 y
5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display).
6. Estaciones de trabajo o Workstations Las estaciones de trabajo se encuentran entre las
miniordenador y las macroordenador (por el procesamiento). Las estaciones de trabajo son un
tipo de ordenador que se utilizan para aplicaciones que requieran de poder de procesamiento
moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones
de ingeniería CAD (Diseño asistido por ordenador) CAM (manufactura asistida por ordenador)
Publicidad Creación de Software En redes, la palabra "workstation" o "estación de trabajo" se
utiliza para referirse a cualquier ordenador que está conectada a una red de área local.
Los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las
antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas
ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las
cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas
posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar
ordenador por carecer del elemento fundamental llamado programa. Otro de los inventos
mecánicos fue la Pascalina inventada por Blaise Pascal (1623-1662) de Francia y la de Gottfried
Wilhelm von Leibniz (1646-1716) de Alemania. Con estas máquinas, los datos se representaban
mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo
dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el
cuentakilómetros de un automóvil. La primera ordenador fue la máquina analítica creada por
Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que
tuvo Charles Babbage sobre un ordenador nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo
para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar
sumas repetidas. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un
telar que podía reproducir automáticamente patrones de tejidos leyendo la información
codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este
método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina
analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una
precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas. El
mundo no estaba listo, y no lo estaría por cien años más. En 1944 se construyó en la Universidad
de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no
está considerada como ordenador electrónica debido a que no era de propósito general y su
funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores. En 1947 se
construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And
Calculator) que fue la primera ordenador electrónica, el U Pagina 3 de 3 equipo de diseño lo
encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de
la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y
requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil
operaciones aritméticas en un segundo. El proyecto, auspiciado por el departamento de Defensa
de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y
matemático húngaro John von Neumann (1903- 1957). Las ideas de von Neumann resultaron tan
fundamentales para su desarrollo posterior, que es considerado el padre de El ordenador. La
EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo.
Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de
mercurio por donde circulaban señales eléctricas sujetas a retardos. La idea fundamental de von
Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces El
ordenador pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente
interconectaban varias secciones de control, como en la ENIAC. Todo este desarrollo de El
ordenador suele divisarse por generaciones y el criterio que se determinó para determinar el
cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al
menos los siguientes requisitos: · La forma en que están construidas. · Forma en que el ser
humano se comunica con ellas. Primera Generación En esta generación había una gran
desconocimiento de las capacidades de El ordenador, puesto que se realizó un estudio en esta
época que determinó que con veinte ordenador se saturaría el mercado de los Estados Unidos en
el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se
conoce como la primera generación. Estas máquinas tenían las siguientes características: · Estas
máquinas estaban construidas por medio de tubos de vacío. · Eran programadas en lenguaje de
máquina. Pagina 4 de 4 En esta generación las máquinas son grandes y costosas (de un costo
aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (NIVersAl Computer), fue
la primera ordenador comercial, que disponía de mil palabras de memoria central y podían leer
cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos. En las dos
primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por
Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se
conocería como IBM (International Bussines Machines). Después se desarrolló la IBM 701 de la
cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand
fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM
desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado. El
ordenador más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios
cientos. Esta ordenador que usaba un esquema de memoria secundaria llamado tambor
magnético, que es el antecesor de los discos actuales. Otros modelos de ordenador que se pueden
situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs
220 y UNIVAC 1105. Segunda Generación Cerca de la década de 1960, El ordenador seguían
evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta
época se empezó a definir la forma de comunicarse con El ordenador, que recibía el nombre de
programación de sistemas. Las características de la segunda generación son las siguientes: · Están
construidas con circuitos de transistores. · Se programan en nuevos lenguajes llamados lenguajes
de alto nivel. En esta generación El ordenador se reducen de tamaño y son de menor costo.
Aparecen muchas compañías y El ordenador eran bastante avanzadas para su época como la serie
5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas de estas ordenador se
programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los
programas eran hechos a la medida Pagina 5 de 5 por un equipo de expertos: analistas,
diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los
problemas y cálculos solicitados por la administración. El usuario final de la información no tenía
contacto directo con El ordenador. Esta situación en un principio se produjo en las primeras
ordenador personales, pues se requería saberlas "programar" (alimentarle instrucciones) para
obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran
de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante
y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el
"programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en
esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento
podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la
aparición de El ordenador personales con mejore circuitos, más memoria, unidades de disco
flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario
compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como
el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la
noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso
del hardware. Pero aquí aparece un nuevo elemento: el usuario. El usuario de El ordenador va
cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las
máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software.
Aparece el concepto de human interface que es la relación entre el usuario y su ordenador. Se
habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el
cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al
software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos
tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas
con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente
aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de
control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la
consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos
prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas
comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas
es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos
menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del
equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.
El ordenador de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en
1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la
IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir
máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. La Radio
Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos
administrativos y comerciales. Después salió al mercado la RCA 601. Pagina 6 de 6 Tercera
generación Con los progresos de la electrónica y los avances de comunicación con El ordenador en
la década de los 1960, surge la tercera generación de El ordenador. Se inaugura con la IBM 360 en
abril de 1964.3 Las características de esta generación fueron las siguientes: · Su fabricación
electrónica esta basada en circuitos integrados. · Su manejo es por medio de los lenguajes de
control de los sistemas operativos. La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50,
65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de
nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares
(no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones). El sistema
operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto
de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. En
1964 CDC introdujo la serie 6000 con El ordenador 6600 que se consideró durante algunos años
como la más rápida. En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135,
145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras
que CDC produce su serie 7000 con el modelo 7600. Estas ordenador se caracterizan por ser muy
potentes y veloces. A finales de esta década la IBM de su serie 370 produce los modelos 3031,
3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño,
que se reemplazaron por su serie 7000. Honey - Well participa con su ordenador DPS con varios
modelos. A mediados de la década de 1970, aparecen en el mercado El ordenador de tamaño
mediano, o miniordenador que no son tan costosas como las grandes (llamadas también como
mainframes que significa también, gran sistema), pero disponen de gran capacidad de
procesamiento. Algunas miniordenador fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital
Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos
NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el
36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra.
En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias
generaciones. Pagina 7 de 7 Cuarta Generación Aquí aparecen los microprocesadores que es un
gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una
velocidad impresionante. Las microordenador con base en estos circuitos son extremadamente
pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen El ordenador
personales que han adquirido proporciones enormes y que han influido en la sociedad en general
sobre la llamada "revolución informática". En 1976 Steve Wozniak y Steve Jobs inventan la primera
microordenador de uso masivo y más tarde forman la compañía conocida como la Apple que fue la
segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún
de las cinco compañías más grandes del mundo. En 1981 se vendieron 800 00 ordenador
personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60
millones de ordenador personales, por lo que no queda duda que su impacto y penetración han
sido enormes. Con el surgimiento de El ordenador personales, el software y los sistemas que con
ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la
comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las
hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de El
ordenador personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante
años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las
microordenador (son los creadores de CP/M y de los productos de Microsoft). No todo son
microordenador, por su puesto, las miniordenador y los grandes sistemas continúan en desarrollo.
De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de
10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado
suponer que las grandes ordenador han desaparecido; por el contrario, su presencia era ya
ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran
industria. Las enormes ordenador de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran
capaces de atender a varios cientos de millones de operaciones por segundo. Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea
de poner también a esa altura el desarrollo del software y los sistemas con que se manejan El
ordenador. Surge la competencia internacional por el dominio del mercado de la computación, en
la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la
capacidad de Pagina 8 de 8 comunicarse con El ordenador en un lenguaje más cotidiano y no a
través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa
de la quinta generación de ordenador", con los objetivos explícitos de producir máquinas con
innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un
programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente
manera: · Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de
gran velocidad. · Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro
previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo
objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. MODELO DE VON
NEUMANN El ordenador digitales actuales se ajustan al modelo propuesto por el matemático John
Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los
datos como los programas, se almacenan en la memoria antes de ser utilizados.
LOS DATOS
Se presentará los principales formatos de datos que usa la microordenador o PC. BITS, BYTES Y
CARACTERES La unidad más pequeña y fundamental de los datos que posee El ordenador se
conoce como un bit. Es, pues, la unidad básica de un sistema de numeración binarios. La palabra
bit representa una abreviación de binaty digit (dígito binaria). Los dígitos binarios sólo tienen
valores de 0 y 1. Tales dígitos representan encendido y apagado, falso y cierto, no y si. Dentro de la
circuitería electrónica de un sistema de ordenador, estos valores son representados por la
presencia o ausencia de voltaje. Un bit es la cantidad más pequeña de información, pues éstos
permiten la construcción de cantidades más grandes de información. Ocho bits conforman un
octeto, también llamado byte. Los bytes son la unidad práctica principal de datos de El ordenador,
puesto que la capacidad de memoria aleatoria y de almacenamiento permanente de un ordenador
son medidas en bytes. Las cantidades grades de un ordenador son medidas en kilobytes,
megabytes y gigabyes. El ordenador están diseñadas para manipular y trabajar con bytes. Hay
ocho ajustes individuales a ceros o unos, activada o desactivadas, en cada byte. Por lo tanto, si
cada uno de los ocho bits tienen dos posiciones (cero y uno), entonces la cantidad de
combinaciones distintas posibles de los ajustes de bit en un byte es 28 , es decir, 256.
Consecuentemente, hay 256 valores diferentes o combinaciones de bits que puede tener un byte.
Los Bits en los Bytes y en las Palabras Para poder referirse a los bits en un byte, se requiere
enumerarlos desde cero y comenzado en el bit del extremo derecho, o menos significativo (véase
Tabla 1). Este m’etodos de especificación de números se llama binario. Bi significa dos y hay
solamente dos valores posibles en este sistema de numeración. El más sistema decimal más
familiar tiene 10 dígitos (del 0 al 9) y el hexadecimal, el cual emplea 16 números (del 0 al 9 y de la
A a la F). - 8 - Tabla 1-1: Patrones de Bits Binarios y sus Valores Patrón de bits Posición de bit Valor
Numérico Potencia de 2 00000001 0 1 20 00000010 1 2 21 00000100 2 4 22
EL VALOR Y UTILIDAD DE LA INFORMACIÓN
El Concepto de Información Podemos definir el término información como la adquisición de
conocimientos sobre una materia específica que permiten ampliar los que se poseen y aplicarlos
de forma práctica en la vida diaria, cotidiana, académica y laboral. Por lo tanto, información
significa recibir alguna noticia que posea el potencial de incrementar nuestro conocimiento, es
decir, el valor y la utilidad de lo aprendido. El Valor de la Información Para que una información
sea valiosa debe ser de utilidad para la persona. Entonces, el valor es el grado de utilidad, o de
importancia práctica, para el que la adquiere. La Utilidad de la Información La utilidad se refiere al
provecho, conveniencia o fruto que podemos obtener de esa información. El Poder de la
Información La capacidad de aplicar la información asimilada y relacionarla a las experiencias y
conocimiento previo le otorga el poder ,al que indagar por información, de lograr sus metas y
objetivos. Esto quiere decir que la persona que dirige sus esfuerzos por buscar información útil y
de valor, según sus metas y objetivos trazados, le permite refinar su capacidad inquisitiva, es decir,
cuándo se debe buscar y qué tipo de información buscar para satisfacer sus necesidades.
CONCEPTOS BÁSICOS Y TERMINOLOGÍA
Introducción a El ordenador El ordenador es un sistema electrónico que lleva a cabo operaciones
de aritmética y de lógica a una alta velocidad de acuerdo a las instrucciones internas, que - 9 - son
ejecutadas sin intervención humana. Además, tiene la capacidad de aceptar y almacenar datos de
entrada, procesarlos y producir resultados de salida automáticamente. Su función principal es
procesar datos. El ordenador representan y manipulan texto, gráficos y música, así como números.
El ordenador provee para un sin número de usos. Actualmente, los sistemas de ordenador son
empleadas en (véase Tabla 1 y 2): Negocios: Ayudan en el diseño y manufactura de productos, a
dar forma en las campañas de mercadeo y a dar seguimiento y procesar inventarios, cuentas a
cobrar y a pagar, y nóminas. Educación: Ayudan en la enseñanza, itinerario de clases y registro de
notas. Profesión médica: Ayudan en el diagnóstico y monitoreo de los pacientes y a regular los
tratamientos. Científicos: Usan El ordenador para analizar el Sistema solar, seguir los patrones del
tiempo y llevar a cabo experimentos. Tabla 1-2: La Importancia de El ordenador/Informática
Representa el cuarto elemento de la economía de un país (tierra, mano de obra, capital, e
informática) Mejora la productividad de las organizaciones Usos de El ordenador en la Sociedad: •
Educación • Gobierno • Corporaciones • Medicina y Ciencia • Medios de Comunicación Tabla 1-2:
Tendencias de la Informática • Conectividad: Líneas de tele comunicaciones conectan ordenador y
teléfonos (e.g., internet/WWW, e-mail, "teleshoping"). • Acceso en línea: Conectarse a otras
ordenador vía modem o redes locales (e.g., banco de datos, servicios de ordenador en línea,
boletines electrónicos). • Interactividad: Permite respuesta inmediáta/diálogo entre ordenador y
usuarios (e.g., multimedios, WEB). - 10
LA UNIDAD DEL SISTEMA
Cuando hablamos de una microordenador, nos referimos por lo regular al equipo y programación
encargado de procesar la información que se entra a la máquina. Esto comúnmente se conoce
como la unidad del sistema. Más específicamente se refiere a la caja que contiene la circuitería
interna de procesamiento de El ordenador, incluyendo la fuente de poder/potencia (power
supply), la tarjeta del sistema (tarjeta madre, "motherboard", ó "mainboard"), las unidades de
disco, las tarjetas enchufables/de expansión y una bocina. Algunas unidades de sistemas de
ordenador personales también integran un monitor. Algunos Elementos de El ordenador El
sistema de información de las microordenador consiste de: Equipo (Hardware): Los componentes
físicos de una unidad del sistema Programación (Software): Representa el sistema operativo y
todos los programas de aplicaciones. Programa: Es el conjunto de instrucciones en una secuencia
para hacer que un ordenador ejecute determinadas operaciones Usuario: Es la persona que usa El
ordenador. Programador: Es la persona que escribe los programas para que El ordenador los
ejecuten. El ordenador no puede llevar a cabo ninguna tarea por sencilla que sea, sin la asistencia
humana. Esta asistencia se le da a El ordenador en forma de instrucciones (programas). Es la más
importante porque determina el éxito o fracaso de las demás partes. Datos: Hechos o material
originado (materia prima) que no han sido procesados o manipulados. Información: Son los datos
que han sido procesados o manipulados. Se usan los datos para producir información que nos va
ayudara tomar decisiones. Documentación: Se refiere a las instrucciones, o a los manuales de
procesamiento que le proporcionan información al usuario de como usar el equipo o los
programas.
Procesamiento de la Información por una Microordenador El ordenador personales se encargan
de convertir la información que entra al sistema (texto, sonido, gráficas, o video) en forma digital,
este proceso se conoce como digitalizar. Esto también se conoce como procesar los datos. El
ordenador, entonces, manipula o procesa las instrucciones y los datos. Es el manejo, cambio y
almacenamiento de información. Esta función la lleva acabo el procesador, el cual es un aparato
que conecta y desconecta circuitos, en función de señales que recibe. Sabe ir a buscar una
determinada palabra, si le indicamos en qué dirección está, y sabe interpretarla. El procesador lee
la información o instrucción en unidades de bits. Un bit - 13 - (digito binario) representa la unidad
de información (para el almacenaje) más pequeña, la cual solo puede tener dos posiciones ("0" ó
"1"). "0/1" representa un bit ("0" implica "apagado" y "1" implica "activado"). Ocho bits
consecutivos representan un "byte". El "byte" posee la capacidad de almacenar una carácter (una
letra o un número). El procesador leera los bits de 16 en 16, cada instrucción de un programa debe
caber en 16 bits. Son 216 posibilidades las que se pueden lograr con 16 bits. Los kilobytes (K ó Kb)
representan 1024 "bytes". Por ejemplo, 4K implica 4096 "bytes de información. Cada megabyte (M
ó Mb) equivalen aproximadamente a un millón de "bytes" de almacenaje. Un gigabyte (GB) es
aproximadamente un billón de bytes o un millón de kilobytes. Los códigos más comunes que
representan caracteres en un ordenador son los códigos de ASCII (American Code Information
Interchange) y EDCDIC (Extended Binary Coded Decimal Interchange Code"). La combinación de
los "bits" (0 y 1) forman los caracteres particulares. ASCII se utiliza en El ordenador personales,
mientras que EBCDIC se emplea en los "mainframes". Cuando se usa el códico ASCII ó EBCDIC,
cada caracter que se representa se almacena en un "byte" de memoria. Para cada "byte" de
memoria, la mayoría de El ordenador poseen un "bit" adicional. Esto se conoce como "parity bit".
Se utiliza la para detectar errores/cambios que pueden ocurrir en uno de los bits dentro de un
byte. Estos errores pueden surgir como consecuencia de fluctuaciones en el voltaje, estática
eléctrica, o fallo de memoria. Unidad de Memoria (Almacenaje Temporero): Es la parte del sistema
de El ordenador que almacena temporalmente la información instrucciones ha ser procesadas.
Consiste de miles de localizaciones de memoria cada una con su propia dirección. La unidad de
información se conoce como el bit. La memoria de El ordenador se encuentra integrada de dos
tipos, a saber: RAM (siglas del inglés: "Random Access Memory") o Memoria de Acceso Aleatorio.
Se pueden guardar datos (combinaciones de "0" u "1") y se pueden leer. Es la memoria de El
ordenador que permite leer, grabar o borrar y modificar, y en la que el acceso a una posición no
depende de la información anterior o posterior requerida. Representa la memoria interna, la cual
puede ser accedida en cualquier lugar de la memoria (en vez de acceder en un orden secuencial).
La memoria RAM se encuentra dividida en dos partes: una operativa y la otra sólo de
almacenamiento. La parte operativa de esta memoria permite realizar cálculos y las entradas y
salidas. Tiene una sola salida y una sola entrada. Es decir que sólo podrá sacar o entrar cada vez
una palabra de 16 bits. RAM es parte de la memoria disponible a un programador para almacenar
temporalmente los programas y la información. ROM (siglas de inglés: "Read Only Memory) o
Memoria Sólo de Lectura. Tipo de memoria permanente, que viene dada con El ordenador, por lo
que no se puede modificar. Sólo admite leer y representa aquella parte de la memoria que solo
puede leer y no se encuentra disponible al programador para almacenaje de instrucciones o
información. En las microordenador, el ROM usualmente contiene el sistema operativo o básico
(BIOS) de El ordenador. - 14 - Tiempo de acceso. El tiempo que toma para que los contenidos del
segmento de la memoria se mueva a un resgistrador del CPU. Unidad Central de Procesamiento
("Central Processing Unit" o "CPU" siglas de inglés): Es la parte principal de un ordenador, pues
controla y realiza todas las operaciones lógicas y los cálculos numéricos e interpreta las
instrucciones y ordena su ejecución. Representa los circuitos para controlar la interpretación y
ejecución de las instrucciones. Representa el cerebro del sistema El ordenador o el
microprocesador. Puede sumar, restar, multiplicar, dividir, y hacer comparaciones de números y
caracteres. El CPU se divide en tres partes: almacenamiento primario (o memoria), unidad de
control y la unidad de aritmética/lógica. También se le da el nombre CPU a la caja que contiene le
CPU y otros dispositivos. Microprocesador: Circuito integrado del tamaño de una uña. Puede
cumplir con más de 50 operaciones diferentes y puede llevar a cabo sobre 500,000 de éstas en un
segundo. Unidad de Salida ("Output") El ordenador comunica los resultados a través de un
monitor de video (pantalla) o impresora. Almacenamiento Secundario/Externo El ordenador
coloca la información en un almacenamiento electrónico de donde puede recuperarla más tarde
(unidad de almacenamiento de disco flexible). La UCP no tiene acceso directo a ellos, ni acceso sin
asistencia. Específicamente, el almacenaje externo representa un medio cubierto con un material
magnetizable sobre la cual se almacena electrónicamente la información. "Chips" (Complejo de
Circuitos Lógicos) Piezas de silicón o material parecido que contienen los componentes
electrónicos en miniatura llamados semiconductores. Todas las microordenador modernas utilizan
"chips" para almacenar y procesar información. Un ordenador puede poseer diversos "chips", los
cuales ejecutan diferentes funciones. Ciclo de Procesamiento Se refiere a la acción de repetir los
pasos del procesamiento una y otra vez. Interrrupts/IRQ's - 15 - Se refiere a la acción detener algo,
i.e., a interrrumbir momentaneamente un proceso o tarea. Tabla 4: Procesando la Información
Entrada: Suministrar información a El ordenador Teclados, ratón, "punced cards", cintas
magnéticas Procesamiento: Análisis de los datos CPU, memoria principal Amacenaje: Lugar donde
se guarda la información Unidad de discos felxible, disco duro, cinta magnética, almecenaje óptico
Salida: Resultados/presentación del producto (e.g., informes, documentos, gráficas, fotos, música,
entre otros) Pantalla, impresora
CARACTERÍSTICAS DE EL ORDENADOR
El ordenador realizan un paso a la vez. Pueden sumar, restar, dividir, multiplicar, comparar letras y
números. Rapidez El ordenador son muy rápidas. La rapidez varían desde: milisegundos una
milésima de segundo microsegundo una millonésima de segundo nanosegundo una billonésima de
segundo psicosegundo una trillonésima de segundo Exactitud/Precisión El ordenador realizan
exactamente lo que se les indica. Se estima que un humano tendría un error en cada 500 o 1,000
operaciones con una calculadora. Los circuitos de El ordenador pueden ejecutar millones de
operaciones cada segundo y pueden corregir sin errores por horas y días sin interrupción.
Eficiencia El ordenador pueden trabajar sin parar, no se aburren y no tienen miedo ni
incomodidades. Capacidad Pueden manejar cantidades enormes de información. Confiabilidad
(Autocomprobación) - 16 - Tienen la capacidad de verificar la exactitud de sus operaciones
internas: Datos Programa Datos Introducidos + Introducidos = Exactos Correctamente
Procesamiento de Salida Los errores de El ordenador generalmente se deben a la entrada de datos
incorrectos o a programas no confiables, ambos usualmente causados por los humanos.
Manipulación de Símbolos. Es posible si un código numérico de identificación es asignado al
símbolo a ser almacenado y procesado. Ejecución de Ciertas Operaciones Lógicas El ordenador es
capaz de ejecutar una sencilla comparación (entre dos datos) y según sea el resultado seguir una
determinada trayectoria. Esta capacidad de comparar es una propiedad importante de El
ordenador porque las preguntas más complejas pueden ser contestadas usando combinaciones de
decisiones de comparación (la lógica de la aplicación debe ser comprensibles, la meta debe estar
claramente definida). Costos Son cada vez más pequeñas, más útiles y menos costosas.
LIMITACIONES DE EL ORDENADOR
El ordenador no es perfecto y requiere un mantenimiento contínuo. Algunas de las limitaciones de
El ordenador puede ser:
• Los programas deben ser confiables.
• La lógica de la aplicación debe ser comprensible (cada paso debe ser específicamente definido).
• Las aplicaciones deben ser adecuadas, deben ser repetitivas y no para usarlas una sola vez.
INTRODUCCIÓN AL "HARDWARE" (EQUIPO) DE LA MICROORDENADOR (PC)
Consideraciones Preliminares El equipo (hardware) incluye todos los componentes físico del
sistema de El ordenador. Puede componer una sola unidad o puede ser un número de dispositivos
separados. Cada componente del equipo de ordenador consiste de circuitos electrónicos y partes
mecánicas que llevan a cabo una función particular. Incluye el CPU ("central processing unit" ó
unidad del sistema), sistemas masivos de almacenaje, unidades de disco, monitor, teclados,
impresora con cinta o cartridge, los terminales, teclados, entre otros periferales. La unidad del
sistema de la mayoría de las microordenador se compone de la tarjeta del sistema, el
microprocesador ("Central Procesing Unit" o "CPU", siglas en inglés), encajes/receptáculos
("sockets") para actualizar, memoria, coprocesadores, "bus", ranuras de expansión, puertos y
conectores, bahías o comparimientos (bays), la fuente de corriente o potencia, y componentes de
sonido. La Tarjeta del Sistema o Tarjeta Madre ("Motherboard", ó "Mainboard") Representa el
circuito eléctrico más grande ubicado dentro de la cubierta/armazón (o chasis) de El ordenador.
Representa la tarjeta principal donde todos los componentes internos de un ordenador se
encuentran conectados. La tarjeta del sistema contiene todos los circuitos que definen las
principales partes de un ordenador. Los componentes que pertenecen al grupo de procesamiento
se encuentran localizados en la tarjeta del sistema ol "motherboard". El término "motherboard" se
utiliza porque todos los otros grupos de componentes y aparatos periféricos son controlados
desde este lugar. El "motherboard" contiene las partes más importantes de la microordenador que
definen su función y expandibilidad. Estos elementos son el microprocesador (CPU) y los
receptáculos (encajes) para los procesadores, el Sistema Básico de Entrada/Salida ("Basic
Input/Output System"o "BIOS", siglas en inglés), receptáculos para la memoria, almacenaje
masivo, ranuras de expansión ("bus") y puertos, el controlador del teclado, y "chips" de de apoyo.
La tarjeta del sistema actúa como el componente central para El ordenador PC. El
Microprocesador (CPU) Para las microordenador, el CPU reside en un "chip" conocido como el
microprocesador. Este representa el componentre electrónico más importante de la tarjeta del
sistema. Podemos decir que es el cerebro de El ordenador. El CPU maneja cada paso en el
procesamiento de la información. Actúa como el conductor y supervisor de los componentes del
"hardware". Además, se encuentra vinculado directa o indirectamente con otro componente del
"motherboard" El microprocesador contiene la unidad de control y la unidad aritmética/lógica.
Estos componentes trabajan juntos utilizando el programa e información almacenada en la
memoria con el fin de procesar las operaciones. - 18 - El Coprocesador. Algunas ordenador viejas
poseen también un coprocesador (segundo microprocesador independiente). Este componente se
utilizaba para poder mejorar la velocidad de ciertas operaciones. Los microprocesadores actuales
poseen integrados todas las funciones del coprocesador. El Coprocesador Matemático. El
coprocesador matemático se encuentra adjacente al microprocesador. Comunmente es del mismo
tamaño del microprocesador, aunque algunas veces más pequeños. El número del "chip" es
estrechamente el mismo, pero termina con un 7 en vez de un 6. Memoria La memoria electrónica
de El ordenador se compone de millones de dígitos binarios. El digito binario, conocido como "bit",
representa la unidad más fundamental de almacenamiento. Un "bit" de memoria es similar a un
interruptor, el cual puede estar activado o apagado; es decir, contiene ya sea un "1" o un "0". Los
bits se organizan en grupos de ocho conocidos como "bytes". Los bits son también agrupados en
palabras. Los programas/aplicaciones actuales requieren que se le instale al sistema una cantidad
específica mínima (megabytes) de memoria, de manera que estos puedan funcionar
apropiadamente. La memoria principal puede dividirse en dos tipos: estática y dinámica. "Read
Only Memory" (ROM): Memoria de solo lectura: Parte del Almacenamiento principal de un
ordenador que no pierde su contenido cuando se interrumpe el flujo de energía eléctrica y que
contiene programas esenciales que ni usted ni El ordenador pueden borrar. Contiene el "basic
input/output system" (BIOS) (sistema básico de entrada/salida) de El ordenador. El BIOS
representa un conjunto de codificados en memoria de solo lectura (ROM) en El ordenador
personales de IBM y las compatibles. Estos programas controlan las operaciones de arranque
("POST") y el control de bajo nivel del hardware de las unidades de disco, el teclado y el monitor.
"Random Access Memory" (RAM) - Memoria de acceso aleatorio: Memoria principal de trabajo de
un ordenador en la que se guardan instrucciones de programas e información para que la unidad
central de procesamiento (CPU) pueda accesarlos directamente a través del bus de datos de alta
velocidad. Existe otro tipo de memoria en El ordenador que no se encuenta físicamente instalada.
Esta se conoce como memoria virtual. Este tipo de memoria tiene el mismo propósito del RAM.
Representa un "espacio" designado de forma temporera para el almacenamiento de la
información. Comunmente este "espacio" se designa en el disco duro. Sistema Básico de
Entrada/Salida ("Basic Input/Output System"o "BIOS") Representa un conjunto de registros
permanentes que le provee al sistema sus características de operación básicas, incluyendo las
instrucciones de auto-evaluación de El ordenador cada vez que ésta se active. - 19 - Tarjeta
Controladora Conecta las unidades de disco duro y disco flexible a El ordenador. Las tarjetas de
sistema actuales poseen integradas controladores para las unidades de disco duro y flexible.
Componentes Estructurales de Apoyo para El ordenador
La microordenador posee otras piezas de equipo que no necesariamente se encuentran
directamente relacionadas en el proceso de manipular la información o de trabajar con el
microprocesador. Estos componentes son, a saber: Circuitos de apoyo: Estos se componen de
"chips", resistencias y otras microestructuras electrónicas. Estos circuitos ofrecen apoyo al
microprocesador, BIOS, RAM, y las unidades de discos flexibles, asegurando que todo trabaje en
conjunto. Los interruptores Paquete Dual en Línea ("Dual In-Line Package" o "DIP", siglas en
Inglés): El ordenador PC/XT y algunos sistemas AT poseen interruptores DIP en la tarjeta del
sistema . Estos se utilizan para establecer la configuración del sistema, número de unidades de
discos flexibles, y memoria. La mayoría de El ordenador AT y 386 utilizan el RAM, Semiconductor
Complementario de Óxido Metálico ("Complementary Metal-Oxide Semiconductor" o "CMOS",
siglas en Inglés) y el programa de "setup" del BIOS. Caballetes de Conexión ("Jumpers"): Se
encuentra en casi todas El ordenador PC. Los "jumpers" especifican el tipo de "adapter" de video
que se posee, la configuración del disco duro, la memoria y tarjeta del sistema ("motherboard"), y
la velocidad (turbo o lenta) de El ordenador cuando comienza. Los "jumpers" se encuentran
distribuídos por toda El ordenador (interna) Tarjetas de expansión: Una tarjeta de expansión es
una opción de ensamblaje/conexión que se convierte en un componente adicional a El ordenador.
Se conecta en otra pieza de equipo conocido como el bus. El bus (líneas de comunicación): El bus
es una línea directa de comunicación entre el microprocesador y las tarjetas de expansión.
Representa un grupo de alambrado que recorre la tarjera del sistema desde un componente a
otro, proveyendo así un canal de comunicación física entre estos. La PC cuenta con distintos tipos
de "bus", tales como el "bus" de la tarjeta del sistema y el "bus" interno del CPU. La velocidad de
transferencia de los distintos tipos de "bus" dependen de la arquitectura de los mismos, así como
de la distancia que tengan que - 20 - recorrer desde un punto a otro. Por consiguiente,
comúnmente el "bus" del CPU tiensde a ser mucho más rápido que el "bus" de la tarjeta del
sistema. Existen diversos tipos de "bus" para la tarjeta del sistema. Estos tipos de "bus" se conocen
como ranuras de expansión (expansión slots). Estas son de un material plástico con huecos o
ranura; representan el lugar en donde se colocan las tarjetas internas (o adaptadoras) de El
ordenador, de manera que se puedan añadir periferales adicionales a la PC. Las ranura de
expansión se encuentran directamente ligados al "bus" ya que es por medio de éste que se
comunican con el resto de los componentes internos de la microordenador. Se encuentran
soldados al mismo. El físico de la ranura de expansión cambia de acuerdo al tipo de "bus" que
soportan. El primer "bus" estándar que lanzó la IBM fue el MCA (Arquitectura de Microcanal).
Luego sugieron nuevos diseños de ordenador con otra arquitectura del "bus"". Estos incluyeron el
ISA ("Industry Standard Architecture"), EISA (Arquitectura Industrial Estándar Extendida, 16 bit a 8
megaherz), y el bus VESA. Las tarjetas del sistema modernas poseen la arquitectura PCI (Peripheral
Component Interconection, 32 bits a 33 megaherz). Las ranuras PCI se encuentran particularmente
en aquellas tarjetas del sistema que soportan el CPU Pentium. Otros tipo de "bus" que se espera
que tengan las microordenador modernas es el AGP (full) de 32 bits a una velocidad de 132
megaherz y el PCI Express. Puertos Seriales (Serial Port) Representa una vía de comunicación para
la entrada y salida de datos a El ordenador. Transfiere los bits de uno en uno (en serie). Por lo
regular, el ratón, algunas impresoras y líneas de acceso terminal se conectan a este puerto en
serie. Puerto Paralelo (Parallel Port). Conexión que permite la transmisión de información
sincrónica a una lata velocidad por medio de las vías paralelas. El Suministro de la Corriente
(Power Supply). El suministro de potencia retira la electricidad del enchufe de la pared, la cual la
acondiciona para pueda ser utilizada dentro de la microordenador y la divide entre las diversas
partes de ésta. Los conectores de la corriente: Dos cables que corren desde el suministro de
potencia hasta la targeta del sistema se conectan cerca de la parte posterior derecha de la tarjeta
del sistema, justamente debajo, donde los cables salen fuera del suministro de potencia. El
Conector del Teclado. El conector del teclado se encuentra en la parte posterior derecha de la
tarjeta del sistema, justamente sobre los conectores de la corriente. - 21 - Periferales (o
Periféricos) Representan los dispositivos de entrada, salida y almacenamiento secundario de El
ordenador. Estos dispositivos se encuentran fuera de la UCP. Pueden estar integrados o separados
de El ordenador. Los periféricos constituyen el medio de comunicación entre nosotros y El
ordenador. Por los periféricos de entrada le proporcionamos información a la máquina, mientras
que por los de salida nos devuelve aquélla debidamente procesada.
Periféricos/Dispositivos de Entrada.
El teclado: Representa el periférico de entrada más común. El ratón ("mouse"): Es un dispositivo
pequeño que se maneja con la mano, el cual permite mover el cursor (raya o marca luminosa que
indica el lugar que ocupará el símbolo que quiere visualizar en la pantalla) a lo largo y ancho de la
pantalla del monitor. El ratón se despalza sobre una mesa o superficie plana. Sintetizadores voz.
Digitalizados (ejemplos: rastreadaores - "scanners"). Lectores ópticos: Lápices capaces de leer el
código de barras, cada día más utilizados en supermercados. Módem: Dispositivo que permite
convertir señales digitales de El ordenador en señales moduladas y analógicas, de manera que se
pueda transmitir los datos de El ordenador a través de una línea telefónica. La información ha ser
transferida puede ser texto, gráficas/imágenes y sonido o mandatos de voz.
Periféricos/Dispositivos de Salida Los datos entrados vía los dispositivos de entrada (teclado,
ratón, rastreador o "scanner", micrófono, entre otros) son procesados en el CPU y luego el
resultado se exhibe en diversos dispositivos, tales como 1) el monitor o pantalla de visualización,
1) impresora, entre otros. La pantalla del monitor: La pantalla del monitor es aquella parte de El
ordenador donde visualizamos los datos, las instrucciones o comandos que damos a El ordenador
mediante el teclado o el ratón o que la misma ordenador genera gracias a la información que tiene
siempre almacenada (la ROM). La impresora: Representan los aparatos que sirven para que la
información que nos ha elaborado El ordenador aparezca escrita en un papel. - 22 - Sistema de
sonido: Las tarjetas de sonido integradas con los amplificadores representan un medio de salida
muy común actualmente con el advenimiento de los programas de multimedios ejecutados
particularmente en el ambiente de "WINDOWS" Módem. Periféricos de Almacenamiento Para
poder guardar los programas que corren en El ordenador, así como la información que se produce
de dichos programas se requiere un mecanismo de almacenaje masivo. Por los regular, este
almacenaje lo representa el disco duro del sistema. Los discos flexibles y las unidades/dispositivos
de CD-ROM representan un medio por el cual se transfieren los programas y la información hacia
(y desde) la microordenador. Unidades de duro (almacenaje masivo): El disco duro almacena todas
las aplicaciones/programas ha ser utilizadas por el usuario. Estos programas se cargan en la
memoria de la microordenador. Además, el usuario puede almacenar la información que produce
de sus programas (texto, imágenes, archivos de sonido, video, entre otros) en el disco duro.
Unidades de CD-ROM: En un CD-ROM se puede almacenar hasta 650 mb. Estos representan un
medio eficaz para que las compañias publicadoras se "software" puedan distribuir sus
programas/aplicaciones. En la actualidad existen drives de CD-ROM en los cuales usted puede
almacenar información desde otra fuente de almacenaje (su disco duro, otro CD-ROM, discos
duros removibles externos, entre otros). Las Unidades de Discos Flexibles (Floppy Disk Drives): Por
lo regular se encuentran localizados en la parte derecha delantera de la unidad. Se encuenntran
dispuestos de arriba hacia abajo o de izquierda a derecha Unidad de cartucho. Flash/USB Drive
Componentes Externos La cubierta/armazón o "chasis" de El ordenador. Los tipos/diseños son:
Desktop Minitower ("Baby Tower") Mid-Tower Full Tower La Unidad del Sistema. La unidad del
sistema representa la caja principal de El ordenador PC. Esta caja puede poseer los siguientes
subcomponentes: - 23 - El panel frontal. Compartimientos o bahías para las unidades/disposistivos
(e.g., unidades de disco flexible, CD-ROM, disco duro, entre otros periferales).
LOS PROGRAMAS/APLICACIONES O "SOFTWARE"
Lo que permite funcionar los componentes internos de la microordenador son los programas o
aplicaciones. Los programas proveen información codificada (empleando un lenguaje específico)
que le indican a El ordenador lo que debe realizar. Los programas/aplicaciones ("software") se
refieren a las instrucciones en códigos que dirigen el funcionamiento de El ordenador hacia una
aplicación en particular. Representan los programas o aplicaciones a ser utilizadas con el
"hardware". El "software" representa los lenguajes (convenciones de signos y palabras que se
utilizan para entenderse) programados que nos permite operar El ordenador y entender sus
mensaje, de manera que la máquina pueda cumplir con su función. Los programas o aplicaciones
se puede categorizar en dos tipos generales, a saber: 1) los programas de sistemas operativos, y 2)
los programas de aplicaciones Clasificación de los Programas Programa de sistema: Sistema
operativo Programas de aplicación: Programadas según necesidades particulares Los Programas
de Sistemas Operativos Estos tipos de programaciones que controlan las funciones internas de El
ordenador. Los sistema operativos comúnmente empleados son Microsoft Windows XP y Vista,
Microsoft Windows Server 2006, OS/2, Unix, Lynux y el Sistema Macintosh. Los Programas de
Aplicaciones Estos programas se pueden clasificar en los siguientes grupos, a saber: 1) aplicaciones
de productividad/oficina (Ej: Micosoft Office 2007, Word Perfect Suite 8.0, Lotus Smart Suite 99,
entre otros), 2) procesadores de palabras (e.g., MS Word, Word Perfect), 3) programas de
publicación (e.g., Adobe InDesign, MS Publisher), 4) hojas de cálculo (e.g., MS Excel, Quattro Pro),
5) banco de datos (e.g., MS Access, DBASE, Fox Pro), 6) aplicaciones de estadísticas (e.g., SPSS,
SAS, StacPac, entre otros), 7) programs de presentaciones electrónicas/gráficas (e.g., MS Power
Point, Corel Presentation, Harvard Graphics; incluye aplicaciones para crear/editar dibujos e
imágenes, tales como CorelDraw, Adobe Photoshop, entre otros) 8) Aplicaciones de multimedios
de autoría (e.g., ToolBook II, Authorware, Director, entre otros), 9) aplicaciones de autoría para el 24 - Web (e.g., MS FrontPage, Netscape Composer, Adobe Pagemill, Hot Metal, entre otros), 10)
programas de telecomunicaciones (e.g., WinCIM), 11) navegadores de la internet/WWW (e.g.,
FireFox de Motzilla, MS Explorer), 12) programas de contabilidad y finaza personal (e.g., Quicken,
Peachthree), 13) programas para la administración de proyectos, 14) diseños creados por El
ordenador (CAD) y programas de utilidades (e.g., Anti Virus).
INTRODUCCIÓN AL SISTEMAS DE ADMINISTRACIÓN DE LA INFORMACIÓN BASADOS EN EL
ORDENADOR
Sistema de Administración de la Información -Concepto Aquella información que se registra y
almacena (dentro de un banco de datos ordenadorizados) con el fin de cumplir con las políticas
operacionales de la agencia Banco de datos que se coleccionan y clasifican con fines
administrativos. Sistema de Administración de la Información -Objetivos Mantener un registro
preciso y actualizado de las operaciones de la agencia para asegurar que: Se sigan apropiadamente
la políticas de todos los elementos de la organización para que trabajen efectivamente Facilitar la
toma de decisiones y planificación estratégica Sistema de Información El conjunto de equipo,
programación, gente, procedimientos, e información (datos) Funciones: Contabilidad, Producción,
Mercadeo, Recursos humanos e Investigación Sistemas de Información Basados en El ordenador
Sistemas para el procesamiento de transacciones (inventarios, facturación, entre otros).
Administración del sistema de información (informes: itinerarios, presupuesto, etc). Sistema de
apoyo para las decisiones (recoge datos de las transacciones, terminales interactivos). Sistema de
apoyo ejecutivo (presenta información bien resumida, presentación electrónica). - 25 - El Triángulo
de la Información Equipo Programación Gente Componentes del Sistema de Información Gente
(usuario finales) Procedimientos (reglas/guías para la gente al usar el programa, equipo y la
información [manuales]) Programación o "software" (instrucciones que seguirá El ordenador)
Equipo o "hardware" (Unidad del sistema, monitor, teclado, ratón, entre otros) Información o
"data" (hechos crudos/no procesados)
CONCLUSIÓN
El ordenador es una máquina electrónica capaz de ordenar procesar y elegir un resultado con una
información.
En la actualidad, dada la complejidad del mundo actual, con el manejo inmenso de conocimientos
e información propia de esta época de crecimiento tecnológico es indispensable contar con una
herramienta que permita manejar información con eficiencia y flexibilidad, esa herramienta es El
ordenador. El ordenador cuentan con diversas herramientas para realizar varias acciones tales
como procesadores de palabras que permiten crear documentos, los y obtener una vista
preliminar del mismo antes de imprimirlo si esa es la necesidad, también cuenta con hojas de
cálculo que permiten realizar operaciones de cálculo de tipo repetitivas o no, también permite
crear nóminas, balances, auditorias y demás operaciones resultando herramientas muy útiles en
muchas áreas de desenvolvimiento cotidiano.
Estas herramientas necesitan de una plataforma en la cual ejecutarse. Este es el papel del sistema
operativo de una máquina computacional, que permite gestionar ficheros, llamadas al sistema,
entre otras acciones. Siendo Linux un sistema operativo muy eficiente constituyéndose en una
alternativa muy viable a la hora de escoger un determinado sistema operativo, ya que combina la
eficiencia, rapidez y potencia de los sistemas UNIX con la facilidad de uso de un sistema gráfico
como MSEl hombre a lo largo de la historia ha sentido la necesidad de agrupar las cosas de diferentes
formas utilizando cálculos matemáticos que le servían de gran utilidad para su subsistencia
utilizando las herramientas disponibles en su entorno, creando sistemas numéricos de forma
inocente como es el ejemplo del hombre primitivo que utilizo los dedos de las manos para contar
lo cual le dio origen al sistema decimal de numeración cuyo nombre se origina de la palabra
"dedo".
Además el hombre primitivo utilizaba piedras para agruparlas y realizar los cálculos dando origen
al primer instrumento de cálculo llamado ábaco. El cual fue utilizado y desarrollados por egipcios y
babilónicos aproximadamente 3.000 años antes de cristo.
En el siglo XVI y XVII debido al crecimiento del comercio en EUROPA y al crecimiento de la
navegación, el hombre vio la necesidad de crear un mecanismo que felicitará los cálculos para el
comercio lo cual dio origen a la creación de nuevas reglas de cálculos (logaritmos de neper) y
creando maquinas que facilitaron anteriormente mencionado.
Durante un siglo se hicieron intentos por mejorar las maquinas de calculo intentando disminuir la
intervención del hombre para así disminuir la probabilidad de error como lo hizo charles Babbage
el que se considera el padre de la informática, mas los pocos avances de
las ciencias matemáticas y físicas que impedían a las maquinas realizar cálalos mas complejos.
Esto solo fue posible en el siglo XIX cuando Howard Aiken creo el MARK I la cual podía realizar
cálculos numéricos en 3 segundos.
GLOSARIO
Ordenador: Sistema electrónico que lleva a cabo operaciones de aritmética y de lógica de a cuerpo
a las instrucciones internas, que son ejecutadas sin intervención humana. Sistema electrónico
capaz de operar bajo el control de unas instrucciones dentro de su unidad de memoria, la cual
puede aceptar información/datos, procesarla y producir información que se puede guardar.
Máquina electrónica que permite la entrada, el procesamiento, el almacenamiento y la salida de
datos. Máquina capaz de seguir instrucciones para modificar datos de una manera deseable y para
realizar por lo menos algunas operaciones sin intervención humana. El ordenador representan y
manipulan texto, gráficos, símbolos y música, así como números. Un dispositivo electrónico que
opera bajo el control de instrucciones almacenadas en su propia memoria. Sistema electrónico
basado en el principio binario utilizado para una diversidad de funciones. Se compone de el chasis
o armazón (case), tarjeta del sistema (mainboard o motherboard), procesador, memoria,
dispositivos de almacenaje, aparatos de entrada y salida, entre otros elementos. Sistema De
Ordenador: Una combinación de partes que trabajan como una unidad, que son: equipo
(hardware), programas (software), datos y gente. Entrada (Input): Cualquier información
introducida a El ordenador. Procesamiento: Ejecución de instrucciones de un programa realizado
por la unidad central de procesamiento (CPU), que transforma de cierta manera los datos, esto es,
los ordena, selecciona algunos de éstos según un criterio especificado o realiza cálculos
matemáticos sobre ellos. - 26 - Cubierta, Armazón o “”Chasis” (Case): Alberga los componentes
internos de El ordenador.
Leer más: http://www.monografias.com/trabajos37/evolucion-ordenador/evolucionordenador.shtml#ixzz4AHUs0QIm