Download Historia de la tecnología

Document related concepts
no text concepts found
Transcript
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
UNIDAD 1: CONCEPTO DE INFORMÁTICA E HISTORIA DE LA
TECNOLOGÍA
La Informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la
información, utilizando sistemas computacionales, generalmente implementados como dispositivos
electrónicos. También está definida como el procesamiento automático de la información.
Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:



Entrada: captación de la información.
Proceso: tratamiento de la información.
Salida: transmisión de resultados.
En los inicios del procesado de información, con la informática sólo se facilitaban los trabajos repetitivos y
monótonos del área administrativa
La historia de la tecnología es la historia de la invención de herramientas y técnicas con un propósito
práctico. La historia moderna está relacionada íntimamente con la historia de la ciencia, pues el
descubrimiento de nuevos conocimientos ha permitido crear nuevas cosas y, recíprocamente, se han
podido realizar nuevos descubrimientos científicos gracias al desarrollo de nuevas tecnologías, que han
extendido las posibilidades de experimentación y adquisición del conocimiento.
Los artefactos tecnológicos son productos de una economía, una fuerza del crecimiento económico y una
buena parte de la vida. Las innovaciones tecnológicas afectan y están afectadas por las tradiciones
culturales de la sociedad. También son un medio de obtener poder militar.
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las
antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en
varillas que a su vez están montadas en un marco rectangular.
La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la
Universidad de Cambridge e Ingeniero Ingles en el siglo XIX. En 1823 el gobierno Británico lo apoyo para
crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.
La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y propenso a errores.
La maquina de Hollerith. En la década de 1880, la oficina del Censo de los Estados Unidos, deseaba
agilizar el proceso del censo de 1890. Para llevar a cabo esta labor, se contrato a Herman Hollerith, un
experto en estadística para que diseñara alguna técnica que pudiera acelerar el levantamiento y análisis
de los datos obtenidos en el censo. Hollerith propuso la utilización de tarjetas perforadas, según un
formato preestablecido, estas serian tabuladas y clasificadas por maquinas especiales. La idea de las
tarjetas perforadas no fue original de Hollerith. Él se baso en el trabajo hecho en el telar de Joseph
Jacquard que ingenio un sistema donde la trama de un diseño de una tela así como la información
necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño
leyendo la información contenida en las tarjetas. De esta forma, se podían obtener varios diseños,
cambiando solamente las tarjetas.
En 1944 se construyó en la Universidad de Harvard, la Mark I. Este computador tomaba seis segundos
para efectuar una multiplicación y doce para una división, con 800 kilómetros de cable, con dimensiones
de 17 metros de largo, 3 metros de alto y 1 de profundidad. Al Mark I se le hicierón mejoras sucesivas,
obteniendo así el Mark II, Mark III y Mark IV.
En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And
Calculator) “Integrador y Calculador Numérico electrónico” que fue la primera computadora electrónica
que funcionaba con tubos al vacío, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John
Eckert. Este computador superaba ampliamente al Mark I, ya que llego hacer 1500 veces mas potente. En
el diseño de este computador fueron incluidas nuevas técnicas de la electrónica que permitían minimizar el
uso de partes mecánicas. Esto trajo como consecuencia un incremento significativo en la velocidad de
procesamiento, podía efectuar 5000 sumas o 500 multiplicaciones en un segundo y permitía el uso de
aplicaciones científicas en astronomía , meteorología, etc.
Durante el desarrollo del proyecto ENIAC, el matemático Von Neumann propuso unas mejoras que
ayudaron a llegar a los modelos actuales de computadoras:
1.- Utilizar un sistema de numeración de base dos (Binario) en vez del sistema decimal tradicional.
2.- Hacer que las instrucciones de operación estén en la memoria , al igual que los datos. De esta forma,
memoria y programa residirán en un mismo sitio.
1
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
La EDVAC (Electronic Discrete Variable Automatic Computer), construida en la Universidad de Manchester,
en Connecticut (EE.UU), en 1949 fue el primer equipo con capacidad de almacenamiento de memoria e
hizo desechar a los otros equipos que tenían que ser intercambios o reconfigurados cada vez que se
usaban. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de
mercurio por donde circulaban señales eléctricas sujetas a retardos. EDVAC pesaba aproximadamente
7850 kg y tenía una superficie de 150 m2.
En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como se le
concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas.
El UNIVAC fue la primera computadora diseñada y construida para un próposito no militar. Desarrollada
para la oficina de CENSO en 1951. La computadora pesaba 7257 kg. aproximadamente, estaba compuesta
por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo. Era una computadora que
procesaba los dígitos en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000
por segundo.
Así Von Neumann, junto con Babbage se consideran hoy como los padres de la Computación
Generaciones de Computadoras
Primera Generación (1951-1958)
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que
se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado
de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los
cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:
- Usaban tubos al vacío para procesar información.
- Usaban tarjetas perforadas para entrar los datos y los programas.
- Usaban cilindros magnéticos para almacenar información e instrucciones internas.
- Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y
eran sumamente lentas.
- Se comenzó a utilizar el sistema binario para representar los datos.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios
cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que
es el antecesor de los discos actuales.
Segunda Generación (1958-1964)
En esta generación aparecen los transistores, las computadoras se reducen de tamaño y son de menor
costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la
serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se
programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:
- Usaban transistores para procesar información.
- Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
- 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
- Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de calor y
eran sumamente lentas.
- Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
- Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran
comercialmente accsesibles.
- Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y
simulaciones de propósito general.
- La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
- Surgieron las minicomputadoras y los terminales a distancia.
- Se comenzó a disminuir el tamaño de las computadoras.
Tercera Generación (1964-1971)
La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de
silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las
computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran
energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de
ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer
miniordenador. Características de está generación:
2
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
- Se desarrollaron circuitos integrados para procesar información.
- Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio
que contiene los componentes electrónicos en miniatura llamados semiconductores.
- Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
- Surge la multiprogramación.
- Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.
- Emerge la industria del "software".
- Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
- Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
- Consumían menos electricidad, por lo tanto, generaban menos calor.
Cuarta Generación (1971-1988)
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados
de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos
son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen
las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad
en general sobre la llamada "revolución informática". Características de está generación:
- Se desarrolló el microprocesador.
- Se colocan más circuitos dentro de un "chip".
- "LSI - Large Scale Integration circuit".
- "VLSI - Very Large Scale Integration circuit".
- Cada "chip" puede hacer diferentes tareas.
- Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer
componente, la memoria primaria, es operado por otros "chips".
- Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
- Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
- Se desarrollan las supercomputadoras.
Quinta Generación (1983 al presente)
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos
explícitos de producir máquinas con innovaciones reales en los criterios mencionados como por ejemplo la
inteligencia artificial, campo de estudio que trata de aplicar los procesos del pensamiento humano usados
en la solución de problemas a la computadora. Computadoras capaces de aprender de si mismas.
SISTEMAS
Los sistemas reales intercambian con su entorno energía, información y, en la mayor parte de
los casos, también materia. Una célula, un ser vivo, la Biosfera o la Tierra entera son ejemplos
de sistemas naturales. El concepto se aplica también a sistemas humanos o sociales, como una
sociedad entera, la administración de un estado, un ejército o una empresa
Sistema de información: es un conjunto de elementos orientados al tratamiento y administración de
datos e información, organizados y listos para su posterior uso, generados para cubrir una necesidad
(objetivo). Dichos elementos formarán parte de alguna de estas categorías
Elementos de un sistema de información.




Personas.
Datos.
Actividades o técnicas de trabajo.
Recursos materiales en general (típicamente recursos informáticos y de comunicación, aunque no
tienen por qué ser de este tipo obligatoriamente).
Todos estos elementos interactúan entre sí para procesar los datos (incluyendo procesos manuales y
automáticos) dando lugar a información más elaborada y distribuyéndola de la manera más adecuada
posible en una determinada organización en función de sus objetivos.
Normalmente el término es usado de manera errónea como sinónimo de sistema de información
informático, en parte porque en la mayoría de los casos los recursos materiales de un sistema de
información están constituidos casi en su totalidad por sistemas informáticos, pero siendo estrictos, un
sistema de información no tiene por qué disponer de dichos recursos (aunque en la práctica esto no suela
ocurrir). Se podría decir entonces que los sistemas de información informáticos son una subclase o un
subconjunto de los sistemas de información en general.
3
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
Dato: El dato es una representación simbólica (numérica, alfabética, algorítmica etc.), un atributo o una
característica de una entidad. El dato no tiene valor semántico (sentido) en sí mismo, pero si recibe un
tratamiento (procesamiento) apropiado, se puede utilizar en la realización de cálculos o toma de
decisiones. Es de empleo muy común en el ámbito informático y, en general, prácticamente en cualquier
disciplina científica.
Información: En términos generales, hablamos de información como un conjunto de datos que están
organizados y que tienen un significado. De esta manera, si tomamos datos por separado no tendrían un
significado mientras que si los agrupamos en forma organizada, si. Para ejemplificarlo en forma simple,
los datos 2, 0, 0 y 7, no tienen un significado por sí mismos y no conforman una información mientras que
si los organizamos significativamente, sí: 2007. La información es un elemento fundamental en el proceso
de la comunicación, ya que tiene un significado para quien la recibe, que la va a comprender si comparte
el mismo código que quien la envía. Esto no sólo ocurre en un proceso social sino también en el mundo de
la informática.
UNIDAD 2: Hardware
El hardware se refiere a todos los componentes físicos (que se pueden tocar), que constituyen el
ordenador.
COMPONENTES INTERNOS
PLACA BASE (PLACA MADRE O MAINBOARD): Es en donde se coloca el Microprocesador, la Memoria
y distintas placas de expansión, tiene distintas conexiones que hacen de unión entre los distintos
componentes de hardware, contiene el Bios y un conjunto de circuitos integrados que cumplen distintas
funciones. Proporciona comunicación física entre distintos dispositivos.
MICROPROCESADOR: Elemento que realiza cálculos, recibe datos y devuelve datos procesados ( en
encuentra en la placa Base o Placa madre)
MEMORIAS
Memoria RAM
La memoria principal o RAM, abreviatura del inglés Randon Access Memory (Memoria de acceso
Aleatorio), es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que
la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga
inseparable del microprocesador, con el cual se comunica a través de los buses de datos.
Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién y
recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes
de poder procesarlos los tiene que llevar a la memoria principal.
Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la
información que estuviera almacenada en ella.
por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy
importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos los
cuales andarán más rápido si el sistema cuenta con más memoria RAM.
Memoria Caché
dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la
característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el
procesador y la memoria principal sea a mayor velocidad.
Memoria de sólo lectura o ROM
Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la
información que contiene puede ser leída pero no modificada. En ella se encuentra toda la información que
el sistema necesita para poder funcionar correctamente ya que los fabricantes guardan allí las
instrucciones de arranque y el funcionamiento coordinado de la computadora. no son volátiles, pero se
pueden deteriorar a causa de campos magnéticos demasiados potentes.
Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. por supuesto,
aunque se apague, esta memoria no se borra.
El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de
configurarse según las características particulares de cada máquina. esta configuración se guarda y se
mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa principal.
Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina no
arranque.
Disco Rígido: Este es un medio magnético para el almacenamiento masivo de información permanente.
Sobre el se instala el software necesario para el funcionamiento de la PC. En el mercado podemos encontrar de distintos
tamaños
4
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
Placas de expansión: Prestan funciones específicas a la PC. Por ejemplo la Placa de Sonido brinda los
dispositivos electrónicos necesarios para poder escuchar sonidos en una PC mediante un juego de
parlantes que se conecten externamente a la placa.
Placa de Video: Es una placa de expansión formada principalmente por un Microprocesador especial
para el procesamiento de imágenes, y Memoria rápida para almacenar datos de imágenes tales como
texturas. Es la encargada de pasarle una señal de video entendible al Monitor y acelerar los procesos de
cálculos principalmente para imágenes en tres dimensiones y compresión – descompresión de video.
Disquetera: Unidad de almacenamiento de datos permanente transportable. Esta unidad esta siendo
sustituida por la grabadora de CD.
Lectora de CD: Lee la información que fue grabada en un CD. Una grabadora de CD puede leer al igual
que una lectora y también grabar información en CD´s. Actualmente conviene las lectoras – grabadoras
de DVD que pueden almacenar más datos en un solo CD.
Fuente de alimentación: Entrega la cantidad de voltaje correcto que necesitan los distintos
componentes que forman una computadora para funcionar. Debe estar correctamente dimensionada.
Gabinete: Es el “envoltorio” de la computadora, actualmente algunos usuarios le prestan mucha
importancia a lo estético y se están fabricando gabinetes transparentes y con distintos accesorios entre
ellos, ventiladores vistosos, indicadores de temperatura, etc. Cuando se adquiere un gabinete nuevo en
este se suele incluir un Teclado, Mouse y los Parlantes.
PERIFÉRICOS:
Se les suele denominar de esta forma a todos los dispositivos que se conectan al CPU, se clasifican en:
dispositivos de Entrada, de Salida, y de Entrada/Salida.
Dispositivos de entrada: Teclado / Mouse: Dispositivos que utiliza un usuario para enviarle datos y
manejar la PC. Hay otros como scanners, etc.
Dispositivos de salida: Monitor / Impresora: Los datos luego de ser procesados son mostrados por
ejemplo a través de un Monitor o Impresora. Los Monitores se están reemplazando de los convencionales
a los LCD y la impresoras se las esta reemplazando por la Multifunción.
Dispositivos de entrada/salida: Multifunción, Lectora de CDs y DVDs, Modem
UNIDAD 3: SOFTWARE
El software es un conjunto de programas, que controla la actuación del ordenador, haciendo que éste siga
en sus acciones una serie de esquemas lógicos predeterminados.
Tal característica ‘lógica’ o ‘inteligente’ del software es lo que hace que se le defina también como la parte
inmaterial o intangible de la pc, aunque los programas que constituyen el software residan en un soporte
físico, como la memoria principal o cualquier dispositivo rígido de almacenamiento.
Clasificación del software
Se puede clasificar al software en tres grandes tipos:
Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los
detalles de la computadora en particular que se use, aislándolo especialmente del procesamiento referido
a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras,
pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces
de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:





Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar
programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera
práctica. Incluye entre otros:

Editores de texto
5
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO




Compiladores
Intérpretes
Enlazadores
Depuradores
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas
específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial
énfasis en los negocios. Incluye entre otros:









Aplicaciones para Control de sistemas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software de Cálculo Numérico y simbólico.
Software de Diseño Asistido (CAD)
Software de Control Numérico (CAM)
SISTEMA OPERATIVO
Conjunto de programas que se integran con el hardware para facilitar al usuario, el aprovechamiento de
los recursos disponibles. Algunos de sus objetivos principales son:
 Provee de un ambiente conveniente de trabajo.
 Hace uso eficiente del Hardware.
 Provee de una adecuada distribución de los recursos.
Un Sistema Operativo deberá satisfacer las siguientes funciones:
 Administrar y Gobiernar el Sistema.
 Asignar los recursos.
 controlar la ejecución de los programas.
Un sistema de computo en muchos casos cuenta con demasiados recursos para ser utilizados por un solo
usuario, es en estos casos cuando se puede dar servicio a varios procesos.
Los sistemas operativos más conocidos y más usados en las computadoras personales PC son: Windows,
Linux y Mac O.S
APLICACIONES
Programa informático que permite a un usuario utilizar una computadora con un fin específico. Las
aplicaciones son parte del software de una computadora, y suelen ejecutarse sobre el sistema operativo.
Una aplicación de software suele tener un único objetivo: navegar en la web, revisar correo, explorar el
disco duro, editar textos, jugar (un juego es un tipo de aplicación), etc. Una aplicación que posee
múltiples programas se considera un paquete.
Son ejemplos de aplicaciones Internet Explorer, Outlook, Word, Excel, WinAmp, etc. Un eejemplo de
paquete seria el Office que trae aplicaciones como Word, Excel, Power Point, etc.
UNIDADES DE MEDIDA EMPLEADAS EN INFORMATICA.
Podemos agrupar estas medidas en tres grupos: Almacenamiento, procesamiento y transmisión de datos.
ALMACENAMIENTO:
Con estas unidades medimos la capacidad de guardar información de un elemento de nuestro PC.
La unidad básica en Informática es el bit. Un bit o Binary Digit es un dígito en sistema binario (0 o 1) con
el que se forma toda la información. Evidentemente esta unidad es demasiado pequeña para poder
contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un
conjunto de bits (el plural de bit es bits).
Para poder almacenar una información más detallada se emplea como unidad básica el byte u octeto,
que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinaciones
diferentes por cada byte como por ejemplo: carácteres, numeros, simbolos
6
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
byte - Formado normalmente por un octeto (8 bits), siendo esta del tipo 8, 16, 32, 64, 128, 256, 512.
Kilobyte (K o KB) - Un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo,
proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC
(Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad.
Megabyte (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000
KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso
del término, cada vez se está empleando más el término MiB.
Gigabyte (GB) - Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el
término Gibibyte o GiB.
Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre
todo en las capacidades de los discos duros) que es lo que realmente estamos comprando. Algunos
fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB, lo que representa una
pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el término GiB. Para que
nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de 250 GB en realidad tiene
232.50 GiB.
Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a
ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida.
Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está
empezando a utilizar la acepción Tebibyte
Existen unas medidas superiores, como el Petabyte, Exabyte, Zettabyte o el Yottabite, que podemos
calcular multiplicando por 1.024 la medida anterior. Estas medidas muy probablemente no lleguen a
utilizarse con estos nombre, sino por los nuevos designados por el IEC.
Gb
1
Mb
Kb
Byte
Bit
1
1024
8192 (1024x8)
1
1024
1.048.576
1.048.576x8
1024
1.048.576
1.073.741.824
PROCESAMIENTO FRECUENCIA DE TRANSMISION:
La velocidad de procesamiento de un procesador se mide en megahercios.
Un megahercio es igual a un millón de hercios.
Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento
por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una velocidad de 500
megahercios es capaz de repetir 500 millones de ciclos por segundo.
En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el gigahercio,
que corresponde a 1.000 millones de hercios por segundo.
Sobre esto hay que aclarar un concepto. Si bien en teoría a mayor frecuencia de reloj (más megahercios)
su supone una mayor velocidad de procesamiento, eso es solo cierto a medias, ya que en la velocidad de
un equipo no solo depende de la capacidad de procesamiento del procesador.
VELOCIDAD TRANSMISION DE DATOS:
En el caso de definir las velocidades de transmisión se suele usar como base el bit, y más concretamente
el bit por segundo, o bps
Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.
Los más utilizados sin el Kilobit, Megabit y Gigabit, siempre expresado en el término por segundo (ps).
Las abreviaturas se diferencian de los términos de almacenamiento en que se expresan con b minúscula.
Estas abreviaturas son:
7
ESCUELA DE EDUCACIÓN SECUNDARIA TECNICA N°2 BERISSO
LENGUAJE TECNOLÓGICO 1° AÑO
Kbps.- = 1.000 bits por segundo.
Mbps.- = 1.000 Kbits por segundo.
Gbps.- = 1.000 Mbits por segundo.
En este sentido hay que tener en cuenta que las velocidades que en la mayoría de las ocasiones se
muestran en Internet están expresadas en KB/s (Kilobyte por segundo), lo que realmente supone que nos
dice la cantidad de bytes (unidad de almacenamiento) que hemos recibido en un segundo, NO la velocidad
de trasmisión. Podemos calcular esa velocidad de transmisión (para pasarla a Kbps o Kilobits por segundo)
simplemente multiplicando el dato que se nos muestra por 8, por lo que una trasmisión que se nos indica
como de 308 KB/s corresponde a una velocidad de transmisión de 2.464 Kbps, a lo que es lo mismo, 2.64
Mbps. Esta conversión nos es muy útil para comprobar la velocidad real de nuestra línea ADSL, por
ejemplo, ya que la velocidad de esta si que se expresa en Kbps o en Mbps.
SISTEMA BINARIO
El sistema binario , en matemáticas e informática, es un sistema de numeración en el que los números
se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras,
pues trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el
sistema binario (encendido 1, apagado 0).
Conversion de Decimal a binario
Se divide el número del sistema decimal entre 2, cuyo resultado entero se vuelve a dividir entre 2, y así
sucesivamente. Ordenados los restos, del último al primero, éste será el número binario que buscamos.
Ejemplo
Transformar el número decimal 100 en binario.
Conversión de Binario a decimal
1. Iniciando por el lado derecho del número en binario, cada cifra se multiplica por 2 elevado a la potencia
consecutiva (comenzando por la potencia 0, o sea 20).
2. Después de realizar cada una de las multiplicaciones, se suman todas y el número resultante será el
equivalente al sistema decimal.
Ejemplo: (Los números de arriba indican la potencia a la que hay que elevar 2)
OTRA FORMA: También se puede optar por utilizar los valores que presenta cada posición del número
binario a ser transformado (potencias de 2), comenzando de derecha a izquierda, y sumando los valores
de las posiciones que tienen un 1.
Ejemplo:
El número binario 1010010 corresponde en decimal al 82. Se puede representar de la siguiente manera:
Los número de arriba representan las potencias de 2, entonces se suman los números que tienen un 1 o
sea 64, 16 y 2:
8