Download 1. introducción. concepto de informática.

Document related concepts
no text concepts found
Transcript
TEMA 1.- INFORMÁTICA. HISTORIA. CONCEPTOS.
Índice
1. INTRODUCCIÓN. CONCEPTO DE INFORMÁTICA..................................................................................................3
2. HISTORIA DE LA INFORMÁTICA..............................................................................................................................4
3. CODIFICACIÓN DE LA INFORMACIÓN....................................................................................................................9
3.1. DATOS E INFORMACIÓN.....................................................................................................................................9
3.2. CÓDIGOS.................................................................................................................................................................9
4. SISTEMAS DE NUMERACIÓN..................................................................................................................................10
4.1. PASO DEL SISTEMA DECIMAL AL SISTEMA BINARIO Y VICEVERSA...................................................10
4.2. SISTEMA DE NUMERACIÓN OCTAL...............................................................................................................13
4.3. CONVERSIÓN DE NÚMEROS A DIFERENTES SISTEMAS DE NUMERACIÓN.........................................13
4.4. UNIDADES DE MEDIDA DE LA INFORMACIÓN............................................................................................13
4.5. CÓDIGO ASCII. ....................................................................................................................................................14
5. HARDWARE Y SOFTWARE.......................................................................................................................................15
6. Ejercicios:.......................................................................................................................................................................16
-1-
1.
INTRODUCCIÓN. CONCEPTO DE INFORMÁTICA.
El diccionario de la Real Academia de la Lengua Española señala que informática es el
"conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático
de la información por medio de ordenadores (computadoras) ".
El concepto de información es muy reciente y además sumamente sencillo. Fue desarrollado en
la década de los 40's por el matemático norteamericano Claude Shannon, para referirse a
todo aquello que está presente en un mensaje o señal cuando se establece un proceso de
comunicación entre un emisor y un receptor. Así, cuando dos personas hablan, intercambian
información; cuando ves una película, recibes información; es más, al probar una galleta tu
sentido del gusto recaba información sobre el sabor y la consistencia del bocado. La
información puede entonces encontrarse y enviarse en muchas formas, a condición de que
quien la reciba pueda interpretarla.
Procesar información implica el almacenamiento, la organización y, muy importante, la
transmisión de la misma. Para ello, en la informática intervienen varias tecnologías; en
términos generales, podemos decir que son dos sus pilares: la computación y la comunicación;
es decir, en lo que hoy conocemos como informática confluyen muchas de las técnicas y de las
máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus
capacidades de memoria, de pensamiento y de comunicación.
-2-
2.
HISTORIA DE LA INFORMÁTICA.
El ordenador en la forma que actualmente lo conocemos no tiene más de cuatro o cinco
décadas, lo que significa que tampoco existía una ciencia informática hace ese tiempo. No
obstante, podemos enumerar una serie de antecedentes históricos que llevaron en continua
evolución a conseguir el ordenador actual:
El primer instrumento construido por la humanidad para facilitar el cálculo fue el ábaco, que
simplificaba las operaciones aritméticas básicas (suma, resta, multiplicación y división). Puede
ser considerado como el origen de las máquinas de calcular. A pesar de su antigüedad, 2600 a.
c., se sigue usando hoy día en algunos países orientales.
La necesidad de realizar operaciones con números más grandes y con mayor rapidez dio lugar
a la aparición de las calculadoras mecánicas. Leonardo da Vinci, Pascal y Leibniz construyeron
las primeras máquinas, pero fue Charles Babbage, en 1832, el que creó la primera capaz de
encadenar varias operaciones automáticamente.
Ilustración 1: máquina de Babbage
En 1880 comenzó a hacerse un censo en EE.UU. que, debido a la cantidad de gente que lo
formaba, tardó ocho años en terminarse. Por este motivo, el gobierno convocó un concurso
para encontrar la mejor forma de realizar censos posteriores. En 1887 Herman Hollerith
construyó una máquina censadora que procesaba los datos utilizando tarjetas perforadas.
En 1944 Howard Aitken, basándose en las ideas de Babbage, creó un ordenador
electromecánico llamado MARK I, que medía quince metros de largo y 2,5 de alto. Además,
pesaba 5 toneladas y tenía 800 kilómetros de cables.
Ilustración 2: Harvard Mark I (IBM)
-3-
En 1945 fue creado, en el ministerio de defensa de los EE.UU. el ordenador ENIAC,
construido a base de válvulas y cuya ventaja fundamental frente al MARK I era el incremento
de velocidad, El calor que desprendía no permitía trabajar con él más de unas pocas horas sin
que se produjera una avería. Ocupaba una superficie de 140 metros cuadrados y poseía más de
18.000 válvulas. Son los ordenadores de la primera generación.
Ilustración 3: Eniac
Ilustración 4: válvula de vacio
(triodo)
Los avances tecnológicos, tales como la utilización de los transistores en ordenadores y la
aparición de los primeros circuitos impresos o chips (el primero fue creado por Texas
Instruments en 1958), aportaron una considerable reducción del tamaño de los ordenadores y
una mayor velocidad del proceso. Son los ordenadores de la segunda y la tercera generación.
Se generaliza el uso de los microprocesadores (Texas Instruments comienza a fabricarlos en
serie, a partir de 1969). Un microprocesador es un conjunto de millones de transistores y
resistencias, que hacen posible la actual miniaturización de los ordenadores.
-4-
Ilustración 5: prime Mac
A principio de los ochenta, aparecen los primeros ordenadores personales (PC) basados en el
sistema operativo MS-DOS. Permiten trabajar con una gran variedad de programas, y su uso
se extiende rápidamente Son Los ordenadores de la cuarta generación.
-5-
Prehistoria
 Los dedos
 El Ábaco 2600 a.c.
Era Mecánica
 Máquina Analítica de
Babage
Primera Generación
 Tubos de vacío
 UNIVAC I, MARK I,
ENIAC, IBM 704
Segunda Generación
 Transistor
 IBM 7090 y 7094
Circuito integrado
IBM 360
Minicomputadoras
Terminales
Tercera Generación




Cuarta Generación
 Ordenadores personales
-6-
El transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de
1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes
fueron galardonados con el Premio Nobel de Física en 1956. Fue el sustituto de la válvula
termoiónica de tres electrodos, o triodo.
El transistor es un dispositivo electrónico semiconductor que se utiliza como amplificador o
conmutador electrónico (llave electrónica). Es un componente clave en nuestra civilización
ya que toda la electrónica moderna los utiliza en: circuitos integrados, microprocesadores,
controladores de motores eléctricos de corriente continua y actualmente están integrados
en todos los dispositivos electrónicos de utilización diaria: radios, televisores, grabadores,
reproductores de audio y vídeo, hornos de microondas, lavarropas automáticos,
automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, calculadoras, impresoras,
lámparas de iluminación fluorecentes, equipos de rayos X, tomógrafos, ecógrafos, etc., etc.
etc.
Distintos encapsulados de transistores:
-7-
3.
CODIFICACIÓN DE LA INFORMACIÓN.
3.1. DATOS E INFORMACIÓN.
En la vida cotidiana, los términos datos e información se utilizan indistintamente; sin embargo,
tienen significados diferentes que no se deben confundir.
Los datos suelen ser números, nombres, símbolos, frases, imágenes, sonidos, colores, olores,
etc. Pero los datos por sí solos no permiten tomar ninguna decisión; para ello es necesario
procesarlos y obtener así lo que se denomina información.
Para que la información sea duradera y pueda ser utilizada posteriormente, debe ser plasmada
sobre un soporte físico (piedra, papel, etc.), utilizando un conjunto de símbolos adecuado.
3.2. CÓDIGOS.
Cada una de las distintas formas de representar la información recibe el nombre de código.
Existen distintas formas de codificación, que abarcan desde la utilización de señales de humo
hasta los mensajes cifrados que se envían los espías.
Por ejemplo, el código morse se basa únicamente en dos símbolos, el punto y la raya; con ellos
se puede representar cualquier información que esté expresada en nuestro alfabeto. Para ello
se deben tener en cuenta las reglas que aparecen a continuación.
Así, el mensaje “socorro” (SOS) se representa de la siguiente manera:
. . . - - - . . .
-8-
4.
SISTEMAS DE NUMERACIÓN.
Un sistema de numeración es un conjunto de reglas que permiten, con una cantidad finita de
símbolos, representar cualquier número. Lo más importante de un sistema de numeración es
que un mismo símbolo (dígito) tiene distinto valor según la posición que ocupe...
El sistema de numeración que se usa habitualmente es el sistema decimal o arábigo, que utiliza
diez símbolos o dígitos: 0,1,2,3,4,5,6,7,8 y 9. El valor de cada dígito está asociado al de una
potencia de base 10, número que coincide con la cantidad de símbolos o dígitos del sistema
decimal, y un exponente igual a la posición que ocupa el dígito (contado desde la derecha)
menos uno. Por ejemplo, en el sistema decimal el número 4.567 se expresa como:
4x103 + 5x102 + 6x101 + 7x100 = 4567(10)
El sistema de numeración que utilizan los ordenadores es el sistema binario, que sólo utiliza
dos dígitos, 0 y 1, y tendrán distinto valor dependiendo de la posición que ocupen, y que viene
determinado por una potencia de base 2.
4.1. PASO DEL SISTEMA DECIMAL AL SISTEMA BINARIO Y
VICEVERSA.
Para convertir un número del sistema decimal al sistema binario , no hay más que dividir
sucesivamente entre 2 y proceder como se indica en la figura:
Ejemplo:
transformar el número decimal 100 en binario.
100 (10) = 1100100
(2)
-9-
Para pasar un número del sistema binario al decimal, basta con seguir este procedimiento:
1001010
(2)
= 1x26 + 0x25 + 0x24 + 1x23 + 0x22 + 1x21 + 0x20 = 74
Ejemplo: Convertir el siguiente numero binario a decimal:
1011 (2= 1·23+0·22+1·21+1·20=8+0+2+1=11 (10
Ejercicio:.
Convertir los siguientes números binarios a decimales:
•
•
•
•
10(2 =
110(2 =
101(2 =
111(2 =
Convertir los siguientes números decimales a binarios:
• 32 =
• 1=
• 0=
• 19 =
-10-
(10)
Tabla de conversión:
binario
0000
0001
0010
0011
0100
0101
0110
0111
1000
1001
1010
1011
1100
1101
1110
1111
Octal
0
1
2
3
4
5
6
7
10
11
12
13
14
15
16
17
Decimal
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Hexadecimal
0
1
2
3
4
5
6
7
8
9
A
B
C
D
E
F
-11-
4.2. SISTEMA DE NUMERACIÓN OCTAL.
El inconveniente de la codificación binaria es que la representación de algunos números resulta
muy larga. Por este motivo se utilizan otros sistemas de numeración que resulten más cómodos
de manejar: octal y hexadecimal. De este modo, los números octales y haxadecimales sirven
para representar, de forma abreviada, ciertos números binarios.
 Existen ocho dígitos diferentes: 0, 1, 2, 3, 4, 5, 6, 7.
 La conversión de un número decimal a octal, y viceversa, se realiza del mismo modo que
la de los números binarios, aunque, lógicamente, se emplea como base el número 8 en
vez del 2.
Por ejemplo, 437(8 quiere decir: 482 + 381 + 780 = 256 + 24 + 7 = 287(10
Para pasar el número 35 en base decimal a octal se realiza de la siguiente forma:
35(10 = 43(8
35
3
8
4
4.3. CONVERSIÓN DE NÚMEROS A DIFERENTES SISTEMAS DE
NUMERACIÓN.
Para pasar en general de una base “m” a otra base “n”, haremos lo siguiente:
1º) Pasamos de base “m” a base “10” → método conocido
2º) Pasamos de base “10” a base “n” → método conocido
4.4. UNIDADES DE MEDIDA DE LA INFORMACIÓN.
En los ordenadores, la unidad de medida de la información es el bit (palabra inglesa - binary
digit), que representa un dígito binario, es decir, un 1 o un 0. Esto responde a la idea física de
que por un circuito pase o no corriente.
Al conjunto de 8 bits se le denomina Byte; con un conjunto de Bytes se puede representar
cualquier información de manera que el ordenador la entienda.
Es evidente que, para las grandes cantidades de información que se manejan actualmente,
esta unidad de medida es demasiado pequeña, por lo que necesitamos múltiplos del byte. La
tabla siguiente muestra las unidades de medida que se utilizan habitualmente y sus
equivalencias.
UNIDAD DE MEDIDA
1 byte
1 kilobyte
1 megabyte
1 gigabyte
1 Terabyte
EQUIVALENCIA
8 bits
1024 bytes
1024 kilobytes
1024 megabytes
1024 Gigabytes
-12-
SIMBOLO
Byte
KB
MB
GB
TB
Ejercicio: Hacer las siguientes conversiones:
1. ¿Cuantos MB son 1024 KB
2. ¿Cuantos GB son 2048 MB
3. ¿Cuantos GB son 65000000 bytes
4. ¿cuantos bytes son 10 GB?
4.5. CÓDIGO ASCII.
Como ya se ha indicado, el ordenador necesita tener los datos codificados en forma binaria, es
decir, convertidos en 0 y 1; por tanto, todos los caracteres (letras, números, y otros
caracteres especiales) deben disponer de un código binario, que representa cada carácter
mediante un número binario constituido ocho dígitos; el denominado código ASCII (American
Standard Code for Information Interchange).
En este sistema, a cada carácter se le asigna un número entre 0 y 255, que, una vez
convertido al sistema binario, nos dá el código del carácter.
-13-
5.
HARDWARE Y SOFTWARE.
En informática hay dos conceptos básicos interrelacionados: hardware y software
Se define el hardware como el conjunto de dispositivos físicos, conectados entre sí, que
integran el ordenador (unidad central de proceso, monitor, teclado, ratón, impresora,...)
Además de estos dispositivos, el ordenador necesita, para poder funcionar, un conjunto de
instrucciones que lo dirijan y le indiquen qué debe hacer y cómo debe hacerlo. A ese conjunto
de instrucciones se le denomina software. El software es, por tanto, el soporte lógico que
permite utilizar el hardware.
Hardware (Elementos físicos de un ordenador)
Dispositivos del sistema
 Procesador (CPU)
 Ranuras de expansión
 Controladores de disco
 Memoria
 Puertos E/S
 Elementos adicionales (chipset, pila, ventilador, etc.)
Periféricos
 Almacenamiento
 Entrada-Salida
 Comunicaciones
Software (Conjunto de programas)
 Sistemas operativos
 Lenguajes de programación
 Aplicaciones
-14-
6.
Ejercicios:
crea un documento en tu carpeta personal, copia las preguntas y las respondes debajo. El
documento debe llamarse “Informática historia y conceptos”
1. Busca toda la información que puedas sobre el ordenador MARK 1 (tamaño, tecnología
2.
3.
4.
5.
6.
7.
8.
9.
que utiliza, etc.) así como fotografías.
Pasa a binario los siguientes números decimales .
1. 10
2. 25
3. 8
4. 13
Pasa a decimal los siguientes números binarios .
1. 100
2. 1000
3. 10000
4. 10101
Definición de hardware, ejemplos y alguna fotografía.
Definición de software.
Busca información sobre el transistor y añade además alguna fotografía.
¿Para qué sirve al código ASCII?
¿Qué es un sistema de numeración posicional? Di algún ejemplo.
Pasa las siguientes unidades.
1. 10 GB a MB
2. 10 MB a KB
3. 2000 KB a MB
4. 1048576 Bytes a MB
-15-