Download partes de un computador

Document related concepts

Multiusuario wikipedia , lookup

Servidor wikipedia , lookup

Historia de los sistemas operativos wikipedia , lookup

Núcleo (informática) wikipedia , lookup

Máquina virtual wikipedia , lookup

Transcript
TALLER DE IMFORMATICA
MERCEDES TOZCANO
COORPORIENTE
ADMINISTRACION DE EMPRESAS Y NEGOCIOS INTERNACIONALES
SARAVENA-ARAUCA
AÑO 2013
1
MERCEDES TOZCANO
TABLA DE CONTENIDO
Contenido
INTRODUCCION: ................................................................................................... 3
OBJETIVO GENERAL ............................................................................................ 4
OBJETIVOS ESPECIFICOSBJ ............................................................................... 5
HISTORIA DE LA COMPUTADORA ....................................................................... 6
LA HISTORIA DE INTERNET ............................................................................... 11
DEFINISION DE HARDWARE Y SOFTWARE ..................................................... 13
PARTES DE UN COMPUTADOR ......................................................................... 14
LA IMPORTANCIA DEL ANTIVIRUS .................................................................... 34
QUÉ SON LAS TIC ............................................................................................... 37
VENTAJAS Y DESVENTAJAS DE LAS TIC´s EN EL AMBITO EDUCATIVO ...... 37
2
MERCEDES TOZCANO
INTRODUCCION
Es de vital importancia aprender y conocer las herramientas para lograr un mejor
desempeño, es decir gracias a los conocimientos adquiridos logramos bases
fundamentales que nos servirán para mejorar la interacción entre los equipos, los
programas, obteniendo un alto desempeño para proyectar y manejar la
informática.
Se dice que el conocimiento es poder, y en este mundo globalizado la necesidad
por mantenerse informado y a la vanguardia es de vital importancia para poder
competir ya que el que tiene los mejores medios de comunicación, puede
desarrollarse más ampliamente, tomar mejores decisiones, aspirar a mejores
puestos laborales e intelectuales. Así como un mejor salario y por ende aún mejor
nivel de vida, ahora con el crecimiento de la tecnología es más fácil, sencillo poder
comunicarse y utilizar la información que antes sería imposible o casi nula de
conseguir, entonces aprovechemos la etapa de la revolución informática.
3
MERCEDES TOZCANO
OBJETIVO GENERAL
Otorgar los conocimientos necesarios de sistemas para que pueda Aplicarlos
eficientemente en la elaboración, edición e impresión de hojas de cálculo, tablas
de bases de datos y hojas de gráficos documentos y demas programas
necesarias.
4
MERCEDES TOZCANO
OBJETIVOS ESPECIFICOSBJ



Fortalecer la estructura funcional de sus diferentes áreas de trabajo que
permita su colaboración y desarrollo, para atender eficientemente las
necesidades de mi empresa, correspondientes a servicios de informática,
comunicaciones y telecomunicaciones, de sus distintas dependencias.
Elaborar planes y programas, con metas y objetivos claramente definidos, que
permitan establecer la pauta del crecimiento y desarrollo de sus áreas de
trabajo.
Los demás que le sean encomendados y que se deriven de la naturaleza de
sus funciones.
5
MERCEDES TOZCANO
HISTORIA DE LA COMPUTADORA
La Informática es una compleja disciplina que puede considerarse como una de
las grandes culminaciones de la Humanidad y cuyas posibilidades aún no se han
agotado. Sus aplicaciones en el campo de la genética han culminado en la
codificación del genoma humano y, en su fusión con la Biología, la Bioinformática
posee un potencial extraordinario que facilita el descubrir las funciones de las
proteínas y que permite la extracción de información de grandes bases de datos
para correlacionar secuencias de ADN a una velocidad inusitada.
Informática’ es un neologismo acuñado por el francés Philippe Dreyfus en 1962
que hunde sus raíces en lo más profundo de las abstracciones creadas por la
mente del hombre, y su evolución corre paralela a descubrimientos propios de
otras muchas disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la
Física y la Metafísica. Incluso la Religión también ha tenido su influencia.
Del Abaco a la tarjeta perforada
EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió.
Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha
soportado la prueba del tiempo.
LA PASCALINA; El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las
ideas para una sumadora mecánica. Siglo y medio después, el filósofo y
matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la
primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria
a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda
Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo
financiero, pues para esos momentos, resultaba más costosa que la labor humana
para los cálculos artiméticos.
LA LOCURA DE BABBAGE, Charles Babbage (1793-1871), visionario inglés y
catedrático de Cambridge, hubiera podido acelerar el desarrollo de las
computadoras si él y su mente inventiva hubieran nacido 100 años después.
Adelantó la situación del hardware computacional al inventar la "máquina de
diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en
6
MERCEDES TOZCANO
los avances de la máquina de diferencias Babbage concibió la idea de una
"máquina analítica".
En esencia, ésta era una computadora de propósitos generales. Conforme con su
diseño, la máquina analítica de Babbage podía suma r, substraer, multiplicar y
dividir en secuencia automática a una velocidad de 60 sumas por minuto. El
diseño requería miles de engranes y mecanismos que cubrirían el área de un
campo de futbol y necesitaría accionarse por una locomotora. Los escépticos l e
pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en
su máquina analítica hasta su muerte.
Los trazos detallados de Babbage describían las características incorporadas
ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era
de la tecnología electrónica y las partes de precisión, hubiera adelantado el
nacimiento de la computadora electrónica por varías décadas. Ironicamente, su
obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la
computadora electrónica ignoraron por completo sus conceptos sobre memoria,
impresoras, tarjetas perforadas y control de pro grama secuencia.
LA PRIMERA TARJETA PERFORADA; El telar de tejido, inventado en 1801 por el
Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se
controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera
siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta
secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso
aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor
analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas
perforadas pudieran adaptarse de manera que propiciaran que el motor de
Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas
personas consideran a Lady Lovelace la primera programadora.
Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el
censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la
conclusión de que el censo de cada diez años tardaría mas que los mismo 10
años para terminarlo. La oficina de censos comisiono al estadística Herman
Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el
censo de 1890.
7
MERCEDES TOZCANO
Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas
perforadas de Hollerit, el censo se terminó en sólo 3 a años y la oficina se ahorró
alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado
de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard,
sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época
expedían boletos con descripciones físicas del pasajero; los conductores hacían
orificios en los boletos que describían el color de cabello, de ojos y la forma de
nariz del pasajero. Eso le dió a Hollerith la idea para hacer la fotografía perforada
de cada persona que se iba a tabular.
Pioneros de la computación
ATANASOFF Y BERRY Una antigua patente de un dispositivo que mucha genté
creyó que era la primera computadora digital electrónica, se invalidó en 1973 por
orden de un tribunal federal, y oficialmente se le dió el credito a John V. Atanasoff
como el inventor de la computador a digital electrónica. El Dr. Atanasoff,
catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora
digital electrónica entre los años de 1937 a 1942. Llamó a su invento la
computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Com puter). Un
estudiante graduado, Clifford Berry,fue una útil ayuda en la construcción de la
computadora ABC.
Algunos autores consideran que no hay una sola persona a la que se le pueda
atribuir el haber inventado la computadora, sino que fue el esfuezo de muchas
personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa
aparece una p laca con la siguiente leyenda: "La primera computadora digital
electrónica de operación automática del mundo, fue construida en este edificio en
1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la
Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante
graduado de física."
Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer
apuntes que describían los principios de la computadora ABC y verla en persona,
el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una
máquina que calcul ara tablas de trayectoria para el ejército estadounidense. El
producto final, una computadora electrónica completamente operacional a gran
8
MERCEDES TOZCANO
escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And
Computer), ó Integrador numéric o y calculador electrónico.
La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó
en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil
veces más veloz que sus predecesoras electromecánicas, irrumpió como un
importante descubrimiento en la tecnología de la computación. Pesaba 30
toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m
x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente
conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un
nuevo programa era un proceso muy tedioso que requería días o incluso
semanas. A diferencia de las computadoras actuales que operan con un sistema
binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una
gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la
Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se
activaba. La imponente escala y las numerosas aplicaciones generales de la
ENIAC señalaron el comienzo de la primera generación de computadoras.
En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la
Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de
programas. El concepto de programa almacenado permitió la lectura de un
programa dentro de la memoria d e la computadora, y después la ejecución de las
instrucciones del mismo sin tener que volverlas a escribir. La primera computadora
en usar el citado concepto fue la la llamada EDVAC (Eletronic Discrete-Variable
Automatic Computer, es decir computadora aut omática electrónica de variable
discreta), desarrollada por Von Neumann, Eckert y Mauchly.
Los programas almacenados dieron a las computadoras una flexibilidad y
confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que
los programas mecánicos. Una computadora con capacidad de programa
almacenado podría ser utilizada para v arias aplicaciones cargando y ejecutando
el programa apropiado. Hasta este punto, los programas y datos podría ser
ingresados en la computadora sólo con la notación binaria, que es el único código
que las computadoras "entienden".
El siguiente desarrollo importante en el diseño de las computadoras fueron los
programas intérpretes, que permitían a las personas comunicarse con las
9
MERCEDES TOZCANO
computadoras utilizando medios distintos a los numeros binarios. En 1952 Grace
Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un
programa que puede traducir enunciados parecidos al inglés en un código binario
comprensible para la maquina llamado COBOL (COmmon Business-Oriented
Langu aje).
Generaciones de computadoras
Primera Generación de Computadoras
(de 1951 a 1958) Las computadoras de la primera Generación emplearon bulbos
para procesar información. Los operadores ingresaban los datos y programas en
código especial por medio de tarjetas perforadas. El almacenamiento interno se
lograba con un tambor que giraba rápida mente, sobre el cual un dispositivo de
lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran
mucho más grandes y generaban más calor que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era
Generación formando una Cia. privada y construyendo UNIVAC I, que el Comité
del censó utilizó para evaluar el de 1950. La IBM tenía el monopolio de los equipos
de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un
gran auge en productos como rebanadores de carne, básculas para comestibles,
relojes y otros artículos; sin embargo no había logrado el c ontrato para el Censo
de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada
fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM
701 se conviertió en un producto comercialmente viable. Sin embargo en 1954
fuen introducido e l modelo IBM 650, el cual es la razón por la que IBM disfruta
hoy de una gran parte del mercado de las computadoras. La administración de la
IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número
era mayor que la cantidad de computadoras instaladas en esa época en E.U. De
hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de
uso limitado las computadoras fueron aceptadas rápidamente por las Compañías
privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se
consolidaban como líderes en la fabricación de computadoras.
Segunda Generación
10
MERCEDES TOZCANO
(1959-1964) Transistor Compatibilidad limitada El invento del transistor hizo
posible una nueva generación de computadoras, más rápidas, más pequeñas y
con menores necesidades de ventilación. Sin embargo el costo seguia siendo una
porción significativa del presupuesto de una Compañia. Las computadoras de la
segunda generación también utilizaban redes de nucleos magnéticos en lugar de
tambores giratorios para el almacenamiento primario. Estos núcleos contenían
pequeños anillos de material magnético, enlazados entre sí, en los cuales pod
podrian almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL desarrollado
durante la 1era generación estaba ya disponible comercialmente. Los programas
escritos para una computadora podían transferirse a otra con un mínimo esfuerzo.
El escribir un programa ya no requería entender plenamente el hardware de la
computación. Las computadoras de la 2da Generación eran substancialmente más
pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones,
como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y
simulaciones para uso general.
LA HISTORIA DE INTERNET
se remonta al temprano desarrollo de las redes de comunicación. La idea de una
red de ordenadores diseñada para permitir la comunicación general entre usuarios
de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la
infraestructura de la red ya existente y los sistemas de telecomunicaciones. La
primera descripción documentada acerca de las interacciones sociales que
podrían ser propiciadas a través del networking (trabajo en red) está contenida en
una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts
Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre
su concepto de Galactic Network (Red Galáctica).
Las más antiguas versiones de estas ideas aparecieron a finales de los años
cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de
los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que
reconoceríamos como las bases de la moderna Internet, empezaron a expandirse
por todo el mundo. En los noventa se introdujo la World Wide Web (WWW), que
se hizo común.
11
MERCEDES TOZCANO
La infraestructura de Internet se esparció por el mundo, para crear la moderna red
mundial de computadoras que hoy conocemos. Atravesó los países occidentales e
intentó una penetración en los países en desarrollo, creando un acceso mundial a
información y comunicación sin precedentes, pero también una brecha digital en el
acceso a esta nueva infraestructura. Internet también alteró la economía del
mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en
el método de la computadora central o unidad principal, que simplemente consistía
en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este
método se usaba en los años cincuenta por el Proyecto RAND para apoyar a
investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando
colaboraba a través de todo el continente con otros investigadores de Santa
Mónica (California) trabajando en demostración automática de teoremas e
inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider,
comprendió la necesidad de una red mundial, según consta en su documento de
enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación
de banda ancha" las cuales proporcionan "las funciones que existen hoy en día de
las bibliotecas junto con anticipados avances en el guardado y adquisición de
información y [otras] funciones simbióticas"
J.C.R Licklider1
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de
información DARPA, y empezó a formar un grupo informal dentro del DARPA del
Departamento de Defensa de los Estados Unidos para investigaciones sobre
ordenadores más avanzadas. Como parte del papel de la oficina de procesado de
información, se instalaron tres terminales de redes: una para la System
Development Corporation en Santa Mónica, otra para el Proyecto Genie en la
Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto
Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría
evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos
de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería
hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que
12
MERCEDES TOZCANO
irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para
contactar con él.
Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber
una terminal que fuese a donde sea que quisieras ir y en donde tengas
interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a
Communications Device" (El Ordenador como un Dispositivo de Comunicación),
en una entrevista con el New York Times2
Como principal problema en lo que se refiere a las interconexiones está el
conectar diferentes redes físicas para formar una sola red lógica. Durante los años
60, varios grupos trabajaron en el concepto de la conmutación de paquetes.
Normalmente se considera que Donald Davies (National Physical Laboratory),
Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado
simultáneamente.3
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los
enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos
propiamente dichos y la información de control, en la que está especificado la ruta
a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de
longitud superior de los paquetes, y si la longitud es mayor el mensaje se
fragmenta en otros paquetes.
DEFINISION DE HARDWARE Y SOFTWARE
Hardware es todo lo que puedes tocar es decir todos los compoentes fisicos de la
computadora, por ejemplo el mouse, el monitor, el cpu, el teclado , la impresora,
memorias
usb
etc.
Software es todo lo que no es fisico que no puedes tocar por ejemplo el sistema
operativo como windows, programas como microsoft office, los antivirus, el
messenger es decir sofware son todos los programas de compitacion que una vez
instalados en la computadora solo se manejan virtualmente es decir no puedes
tocarlos
no
existen
fisicamente
solo
virtualmente.
13
MERCEDES TOZCANO
Por ejemplo sofware un antivirus compras el disco lo puedes tocar pero ese no es
el antivirus es solo el medio de transporte donde lo llevas el verdadero antivirus es
el que una vez instalado en la computadora te protege y ese ya no es fisico es
virtual no lo puedes tocar, en cambio un teclado que es hardware siempre va aser
fisico siempre lo vas a poder tocar con tus manos directamente.
PARTES DE UN COMPUTADOR
Hardware
Es un termino proveniente del inglés definido por la RAE como el conjunto de
elementos materiales que conforman una computadora, sin embargo, es usual que
sea utilizado en una forma más amplia, generalmente para describir componentes
físicos de una tecnología, así el hardware puede ser de un equipo militar
importante, un equipo electrónico, un equipo informático o un robot.
En informática también se aplica a los periféricos de una computadora tales como
el disco duro, CD-ROM, disquetera (floppy). En dicho conjunto se incluyen los
dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas,
periféricos de todo tipo y cualquier otro elemento físico involucrado.
Tipos de Hardware
1. Hardware de un Servidor:
Se clasifica generalmente en básico y complementario, entendiendo por básico
todo aquel dispositivo necesario para iniciar el funcionamiento de la computadora,
y el complementario, como su nombre indica, sirve para realizar funciones
específicas (más allá de las básicas) no estrictamente necesarias para el
funcionamiento de la computadora.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar
instrucciones programadas que consisten en operaciones aritmetilógicas y de
entrada/salida; reciben entradas (datos para su procesamiento), producen salidas
(resultados del procesamiento), procesan y almacenan información.
2. Periféricos de entrada (E)
Son los que permiten al usuario que ingrese información desde el exterior. Entre
ellos podemos encontrar: teclado, mouse o ratón, escáner, SAI (Sistema de
Alimentación Ininterrumpida), micrófono, cámara web , lectores de código de
barras, Joystick, etc.
14
MERCEDES TOZCANO


Ratón o Mouse: Es un dispositivo empleado para señalar en la pantalla objetos u
opciones a elegir; desplazándose sobre una superficie según el movimiento de la
mano del usuario.
Normalmente se utilizan dos botones del ratón, el principal y el secundario que
corresponden con el botón izquierdo y derecho respectivamente. Si eres zurdo
puedes cambiar esta configuración en Configuración, Panel de Control, icono
Mouse y activar la casilla "Zurdo". Con el botón principal se realizan las
operaciones más usuales como hacer clic, doble clic y arrastrar. Mientras que con
el botón secundario normalmente aparece el menú contextual.
Teclado: Es el periférico de entrada por excelencia, introduce texto escrito en la
computadora. Este dispositivo ha ido evolucionando con la incorporación de teclas
y nuevas funciones, pulsando las mismas se introducen números, letras u otros
caracteres, también se puede realizar determinadas funciones al combinar varias
de ellas.
Entre las partes del teclado podemos distinguir: el teclado numérico, que facilita el
trabajo con datos numéricos, las teclas de navegación que permiten ir
rápidamente al principio de una línea, pagina o documento, las teclas especiales y
de función.
Escáner: Se emplea para digitalizar una imagen y sonidos, convirtiéndolos en
archivos manejables en la computadora, solo se requiere un micrófono que se
conecta a la carcasa de la misma. La resolución en un escáner se mide en puntos
por pulgada y se expresa con 2 números.
3. Periféricos de salida (S)
Son los que muestran al usuario el resultado de las operaciones realizadas por el
PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc.
Monitor: es el dispositivo en el que se muestran las imágenes generadas por el
adaptador de vídeo del ordenador o computadora. El término monitor se refiere
normalmente a la pantalla de vídeo y su carcasa.
El monitor se conecta al adaptador de vídeo mediante un cable. La calidad del
monitor se mide por su tamaño (especificado como la longitud de la diagonal de la
pantalla, medida en pulgadas), el tamaño del punto, la frecuencia de barrido
horizontal y la frecuencia de barrido vertical o frecuencia de refresco.
Impresora: periférico para ordenador o computadora que traslada el texto o la
imagen generada por computadora a papel u otro medio, como transparencias o
diversos tipos de fibras. Las impresoras se pueden dividir en categorías siguiendo
diversos criterios.
La distinción más común se hace entre las que son de impacto y las que no lo son.
Las impresoras de impacto se dividen en impresoras matriciales e impresoras de
margarita. Las que no son de impacto abarcan todos los demás tipos de
mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta
e impresoras láser.
15
MERCEDES TOZCANO
4. Unidad Central de Procesamiento: CPU
Es el componente que interpreta instrucciones y procesa datos. Es el elemento
fundamental, el cerebro de la computadora. Su papel sería equiparable al de un
director de orquesta, cuyo cometido es que el resto de componentes funcionen
correctamente y de manera coordinada. Las unidades centrales de proceso no
sólo están presentes en los ordenadores personales, sino en todo tipo de
dispositivos que incorporan una cierta "inteligencia" electrónica como pueden ser:
televisores, automóviles, calculadores, aviones, teléfonos móviles, juguetes y
muchos más.
5. La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU):
Es un circuito digital que calcula operaciones aritméticas (como adición,
substracción, etc.) y operaciones lógicas (como OR, NOT, XOR, etc.), entre dos
números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación
aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU
minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene
comprobando si debe activar el pitido del temporizador, etc...
6. Unidades de Almacenamiento:
Estas unidades se encargan de guardar los datos que se producen durante el
funcionamiento del procesador para un posterior uso, o simplemente para guardar
determinados datos como, fotografías, documentos, etc. De manera que podemos
decir que los datos en una computadora se guardan en las unidades de
almacenamiento de forma permanente o temporal. Estas unidades se clasifican
en:
Unidades de almacenamiento primario: incluye la memoria de acceso aleatorio
(RAM), la cual se compone de uno o más chips y se utiliza como memoria de
trabajo para programas y datos. Es un tipo de memoria temporal que pierde sus
datos cuando se queda sin energía; y la memoria de solo lectura (ROM), la cual
está destinada a ser leída y no destructible, es decir, que no se puede escribir
sobre ella y que conserva intacta la información almacenada.
Unidades de almacenamiento secundario: Tenemos el disco duro, el cual es el
dispositivo encargado de almacenar información de forma permanente en una
computadora; los discos compactos o CD, que son un soporte digital óptico
utilizado para almacenar cualquier tipo de información; los DVD o disco de video
digital, los cuales son un formato de almacenamiento óptico que puede ser usado
para guardar datos, incluyendo películas con alta calidad de vídeo y audio; y los
dispositivos de almacenamiento extraíbles.
Un sistema operativo (cuyo acrónimo es SO) es un conjunto de programas
destinados a permitir la comunicación del usuario con un computador y
16
MERCEDES TOZCANO
gestionar sus recursos de una forma eficaz. Comienza a trabajar cuando se
enciende el computador, y gestiona el hardware de la máquina desde los
niveles más básicos.
Un sistema operativo se puede encontrar normalmente en la mayoría de los
aparatos electrónicos que podamos utilizar sin necesidad de estar conectados a
una computadora y que utilicen microprocesadores para funcionar, ya que gracias
a estos podemos entender la máquina y que ésta cumpla con sus funciones
(teléfonos móviles, reproductores de DVD, autoradios... y computadoras).
A. Tipos de sistemas operativos
1 Sistemas Operativos por su Estructura
Según [Alcal92], se deben observar dos tipos de requisitos cuando se construye
un sistema operativo, los cuales son:
Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y
adecuado al uso al que se le quiere destinar.
Requisitos del software: Donde se engloban aspectos como el mantenimiento,
forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores
y flexibilidad.
A continuación se describen las distintas estructuras que presentan los actuales
sistemas operativos para satisfacer las necesidades que de ellos se quieren
obtener.
1.1 Estructura monolítica.
17
MERCEDES TOZCANO
Es la estructura de los primeros sistemas operativos constituídos
fundamentalmente por un solo programa compuesto de un conjunto de rutinas
entrelazadas de tal forma que cada una puede llamar a cualquier otra (Ver Fig. 2).
Las características fundamentales de este tipo de estructura son:
Construcción del programa final a base de módulos compilados separadamente
que se unen a través del ligador.
Buena definición de parámetros de enlace entre las distintas rutinas existentes,
que puede provocar mucho acoplamiento.
Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes
aspectos de los recursos de la computadora, como memoria, disco, etc.
Generalmente están hechos a medida, por lo que son eficientes y rápidos en su
ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar
diferentes ambientes de trabajo o tipos de aplicaciones.
1.2 Estructura jerárquica.
A medida que fueron creciendo las necesidades de los usuarios y se
perfeccionaron los sistemas, se hizo necesaria una mayor organización del
software, del sistema operativo, donde una parte del sistema contenía subpartes y
esto organizado en forma de niveles.
Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de
ellas estuviera perfectamente definida y con un claro interface con el resto de
elementos.
Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el
primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven),
de Dijkstra, que se utilizó con fines didácticos (Ver Fig. 3). Se puede pensar
también en estos sistemas como si fueran `multicapa'. Multics y Unix caen en esa
categoría. [Feld93].
1.3 Máquina Virtual.
Se trata de un tipo de sistemas operativos que presentan una interface a cada
proceso, mostrando una máquina que parece idéntica a la máquina real
subyacente. Estos sistemas operativos separan dos conceptos que suelen estar
unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El
objetivo de los sistemas operativos de máquina virtual es el de integrar distintos
sistemas operativos dando la sensación de ser varias máquinas diferentes.
18
MERCEDES TOZCANO
El núcleo de estos sistemas operativos se denomina monitor virtual y tiene como
misión llevar a cabo la multiprogramación, presentando a los niveles superiores
tantas máquinas virtuales como se soliciten. Estas máquinas virtuales no son
máquinas extendidas, sino una réplica de la máquina real, de manera que en cada
una de ellas se pueda ejecutar un sistema operativo diferente, que será el que
ofrezca la máquina extendida al usuario (Ver Fig. 5).
1.4 Cliente-servidor ( Microkernel)
El tipo más reciente de sistemas operativos es el denominado Cliente-servidor,
que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o
pequeñas.
Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito
general y cumple con las mismas actividades que los sistemas operativos
convencionales.
El núcleo tiene como misión establecer la comunicación entre los clientes y los
servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo,
un programa de aplicación normal es un cliente que llama al servidor
correspondiente para acceder a un archivo o realizar una operación de
entrada/salida sobre un dispositivo concreto. A su vez, un proceso cliente puede
19
MERCEDES TOZCANO
actuar como servidor para otro." [Alcal92]. Este paradigma ofrece gran flexibilidad
en cuanto a los servicios posibles en el sistema final, ya que el núcleo provee
solamente funciones muy básicas de memoria, entrada/salida, archivos y
procesos, dejando a los servidores proveer la mayoría que el usuario final o
programador puede usar. Estos servidores deben tener mecanismos de seguridad
y protección que, a su vez, serán filtrados por el núcleo que controla el hardware.
2 Sistemas Operativos por Servicios
Esta clasificación es la más comúnmente usada y conocida desde el punto de
vista del usuario final. Esta clasificación se comprende fácilmente con el cuadro
sinóptico que a continuación se muestra en la Fig. 6.
2.1 Monousuarios
20
MERCEDES TOZCANO
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a
la vez, sin importar el número de procesadores que tenga la computadora o el
número de procesos o tareas que el usuario pueda ejecutar en un mismo instante
de tiempo. Las computadoras personales típicamente se han clasificado en este
renglón.
2.2 Multiusuarios
Los sistemas operativos Multiusuarios son capaces de dar servicio a más de un
usuario a la vez, ya sea por medio de varias terminales conectadas a la
computadora o por medio de sesiones remotas en una red de comunicaciones. No
importa el número de procesadores en la máquina ni el número de procesos que
cada usuario puede ejecutar simultáneamente.
2.3 Monotareas
Los sistemas monotarea son aquellos que sólo permiten una tarea a la vez por
usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual
se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar
haciendo
solo
una
tarea
a
la
vez.
2.4 Multitareas
Un sistema operativo multitarea es aquél que le permite al usuario estar realizando
varias labores al mismo tiempo. Por ejemplo, puede estar editando el código
fuente de un programa durante su depuración mientras compila otro programa, a
la vez que está recibiendo correo electrónico en un proceso en background. Es
común encontrar en ellos interfaces gráficas orientadas al uso de menús y el
ratón, lo cual permite un rápido intercambio entre las tareas para el usuario,
mejorando su productividad.
2.5 Uniproceso
Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un
procesador de la computadora, de manera que si la computadora tuviese más de
uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y
MacOS.
2.6 Multiproceso
21
MERCEDES TOZCANO
Un sistema operativo multiproceso se refiere al número de procesadores del
sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su
carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica
o asimétricamente. Cuando se trabaja de manera asimétrica, el sistema operativo
selecciona a uno de los procesadores el cual jugará el papel de procesador
maestro y servirá como pivote para distribuir la carga a los demás procesadores,
que reciben el nombre de esclavos. Cuando se trabaja de manera simétrica, los
procesos o partes de ellos (threads) son enviados indistintamente a cualesquira de
los procesadores disponibles, teniendo, teóricamente, una mejor distribución y
equilibrio en la carga de trabajo bajo este esquema.
Se dice que un thread es la parte activa en memoria y corriendo de un proceso, lo
cual puede consistir de un área de memoria, un conjunto de registros con valores
específicos, la pila y otros valores de contexto. Us aspecto importante a considerar
en estos sistemas es la forma de crear aplicaciones para aprovechar los varios
procesadores. Existen aplicaciones que fueron hechas para correr en sistemas
monoproceso que no toman ninguna ventaja a menos que el sistema operativo o
el compilador detecte secciones de código paralelizable, los cuales son ejecutados
al mismo tiempo en procesadores diferentes. Por otro lado, el programador puede
modificar sus algoritmos y aprovechar por sí mismo esta facilidad, pero esta última
opción las más de las veces es costosa en horas hombre y muy tediosa, obligando
al programador a ocupar tanto o más tiempo a la paralelización que a elaborar el
algoritmo inicial.
3. Sistemas Operativos por la Forma de Ofrecer sus Servicios
Esta clasificación también se refiere a una visión externa, que en este caso se
refiere a la del usuario, el cómo accesa los servicios. Bajo esta clasificación se
pueden detectar dos tipos principales: sistemas operativos de red y sistemas
operativos distribuídos.
3.1 Sistemas Operativos de Red
Los sistemas operativos de red se definen como aquellos que tiene la capacidad
de interactuar con sistemas operativos en otras computadoras por medio de un
medio de transmisión con el objeto de intercambiar información, transferir
archivos, ejecutar comandos remotos y un sin fin de otras actividades. El punto
crucial de estos sistemas es que el usuario debe saber la sintaxis de un conjunto
22
MERCEDES TOZCANO
de comandos o llamadas al sistema para ejecutar estas operaciones, además de
la ubicación de los recursos que desee accesar. Por ejemplo, si un usuario en la
computadora hidalgo necesita el archivo matriz.pas que se localiza en el directorio
/software/código en la computadora morelos bajo el sistema operativo UNIX, dicho
usuario podría copiarlo a través de la red con los comandos siguientes: hidalgo%
hidalgo% rcp morelos:/software/codigo/matriz.pas . hidalgo% En este caso, el
comando rcp que significa "remote copy" trae el archivo indicado de la
computadora morelos y lo coloca en el directorio donde se ejecutó el mencionado
comando. Lo importante es hacer ver que el usuario puede accesar y compartir
muchos recursos.
3.2 Sistemas Operativos Distribuidos
Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando
integrar recursos (impresoras, unidades de respaldo, memoria, procesos,
unidades centrales de proceso) en una sola máquina virtual que el usuario accesa
en forma transparente. Es decir, ahora el usuario ya no necesita saber la ubicación
de los recursos, sino que los conoce por nombre y simplementa los usa como si
todos ellos fuesen locales a su lugar de trabajo habitual. Todo lo anterior es el
marco teórico de lo que se desearía tener como sistema operativo distribuido, pero
en la realidad no se ha conseguido crear uno del todo, por la complejidad que
suponen: distribuir los procesos en las varias unidades de procesamiento,
reintegrar sub-resultados, resolver problemas de concurrencia y paralelismo,
recuperarse de fallas de algunos recursos distribuidos y consolidar la protección y
seguridad entre los diferentes componentes del sistema y los usuarios. [Tan92].
Los avances tecnológicos en las redes de área local y la creación de
microprocesadores de 32 y 64 bits lograron que computadoras mas o menos
baratas tuvieran el suficiente poder en forma autónoma para desafiar en cierto
grado a los mainframes, y a la vez se dio la posibilidad de intercomunicarlas,
sugiriendo la oportunidad de partir procesos muy pesados en cálculo en unidades
más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los
sub-resultados, creando así una máquina virtual en la red que exceda en poder a
un mainframe.
El sistema integrador de los microprocesadores que hacer ver a las varias
memorias, procesadores, y todos los demás recursos como una sola entidad en
23
MERCEDES TOZCANO
forma transparente se le llama sistema operativo distribuido. Las razones para
crear o adoptar sistemas distribuidos se dan por dos razones principales: por
necesidad ( debido a que los problemas a resolver son inherentemente
distribuidos ) o porque se desea tener más confiabilidad y disponibilidad de
recursos. En el primer caso tenemos, por ejemplo, el control de los cajeros
automáticos en diferentes estados de la república. Ahí no es posible ni eficiente
mantener un control centralizado, es más, no existe capacidad de cómputo y de
entrada/salida para dar servicio a los millones de operaciones por minuto. En el
segundo caso, supóngase que se tienen en una gran empresa varios grupos de
trabajo, cada uno necesita almacenar grandes cantidades de información en disco
duro con una alta confiabilidad y disponibilidad. La solución puede ser que para
cada grupo de trabajo se asigne una partición de disco duro en servidores
diferentes, de manera que si uno de los servidores falla, no se deje dar el servicio
a todos, sino sólo a unos cuantos y, más aún, se podría tener un sistema con
discos en espejo ( mirror ) a través de la red,de manera que si un servidor se cae,
el servidor en espejo continúa trabajando y el usuario ni cuenta se da de estas
fallas, es decir, obtiene acceso a recursos en forma transparente.
3.2.1 Ventajas de los Sistemas Distribuidos
En general, los sistemas distribuidos (no solamente los sistemas operativos)
exhiben algunas ventajas sobre los sistemas centralizados que se describen
enseguida.
Economía: El cociente precio/desempeño de la suma del poder de los
procesadores separados contra el poder de uno solo centralizado es mejor cuando
están distribuídos.
Velocidad: Relacionado con el punto anterior, la velocidad sumada es muy
superior.
Confiabilidad: Si una sola máquina falla, el sistema total sigue funcionando.
Crecimiento: El poder total del sistema puede irse incrementando al añadir
pequeños sistemas, lo cual es mucho más difícil en un sistema centralizado y
caro.
Distribución: Algunas aplicaciones requieren de por sí una distribución física.
24
MERCEDES TOZCANO
Por otro lado, los sistemas distribuídos también exhiben algunas ventajas sobre
sistemas aislados. Estas ventajas son:
Compartir datos: Un sistema distribuído permite compartir datos más fácilmente
que los sistemas aislados, que tendrian que duplicarlos en cada nodo para
lograrlo.
Compartir dispositivos: Un sistema distribuído permite accesar dispositivos desde
cualquier nodo en forma transparente, lo cual es imposible con los sistemas
aislados. El sistema distribuído logra un efecto sinergético.
Comunicaciones: La comunicación persona a persona es factible en los sistemas
distribuídos, en los sistemas aislados no. _ Flexibilidad: La distribución de las
cargas de trabajo es factible en el sistema distribuídos, se puede incrementar el
poder de cómputo.
3.2.2 Desventajas de los Sistemas Distribuídos
Así como los sistemas distribuídos exhiben grandes ventajas, también se pueden
identificar algunas desventajas, algunas de ellas tan serias que han frenado la
producción comercial de sistemas operativos en la actualidad. El problema más
importante en la creación de sistemas distribuídos es el software: los problemas
de compartición de datos y recursos es tan complejo que los mecanismos de
solución generan mucha sobrecarga al sistema haciéndolo ineficiente. El checar,
por ejemplo, quiénes tienen acceso a algunos recursos y quiénes no, el aplicar los
mecanismos de protección y registro de permisos consume demasiados recursos.
En general, las soluciones presentes para estos problemas están aún en pañales.
Otros problemas de los sistemas operativos distribuídos surgen debido a la
concurrencia y al paralelismo. Tradicionalmente las aplicaiones son creadas para
computadoras que ejecutan secuencialmente, de manera que el identificar
secciones de código `paralelizable' es un trabajo ardúo, pero necesario para dividir
un proceso grande en sub-procesos y enviarlos a diferentes unidades de
procesamiento para lograr la distribución. Con la concurrencia se deben implantar
mecanismos para evitar las condiciones de competencia, las postergaciones
indefinidas, el ocupar un recurso y estar esperando otro, las condiciones de
espera circulares y , finalmente, los "abrazos mortales" (deadlocks). Estos
problemas de por sí se presentan en los sistemas operativos multiusuarios o
25
MERCEDES TOZCANO
multitareas, y su tratamiento en los sistemas distribuídos es aún más complejo, y
por lo tanto, necesitará de algoritmos más complejos con la inherente sobrecarga
esperada.
Características
Administración de tareas:
Monotarea: Si solamente puede ejecutar un proceso (aparte de los procesos del
propio S.O.) en un momento dado. Una vez que empieza a ejecutar un proceso,
continuará haciéndolo hasta su finalización o interrupción.
Multitarea: Si es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de
S.O. normalmente asigna los recursos disponibles (CPU, memoria, periféricos) de
forma alternada a los procesos que los solicitan, de manera que el usuario percibe
que todos funcionan a la vez, de forma concurrente.
Administración de usuarios:
Monousuario: Si sólo permite ejecutar los programas de un usuario al mismo
tiempo.
Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus
programas, accediendo a la vez a los recursos de la computadora. Normalmente
estos SS.OO. utilizan métodos de protección de datos, de manera que un
programa no pueda usar o cambiar los datos de otro usuario.
Manejo de recursos:
Centralizado: Si permite utilizar los recursos de una sola computadora.
Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... ) de
más de una computadora al mismo tiempo.
Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows,
pero hay otros que también se utilizan, como por ejemplo Linux y Unix.
Sistemas operativos mas utilizados
Si comparamos Linux con Windows 95/98/XP encontramos las siguientes ventajas
e inconvenientes:
26
MERCEDES TOZCANO
Precio:
Linux es libre, flexible, gratuito, configurable, eficiente, no requiere hardware caro,
no obliga a cambiar continuamente la versión del software.
Windows es un software no gratuito y poco flexible, ademas de que continuamente
cambia la versión de software.
Compatibilidad:
Linux requiere mas conocimientos de informática, no hay sustituto directo para
todas las aplicaciones, algunos dispositivos de última generación no están
soportados (cada vez son menos).
Windows es un software mucho mas compatible, tiene mucho mayor soporte en
cuanto a dispositivos y requiere el mínimo de conocimientos de informática.
Usuarios:
Linux es un software menos comercial por lo cual es menos utilizado ya que como
es gratuito la mayoría de usuarios no le tienen toda la confianza.
Windows es un software muy publicitado lo cual lo convierte en un producto muy
comercial además de que cuenta con un numero mucho mayor de usuarios
alrededor del mundo.
Seguridad:
Windows no es el único sistema operativo donde podemos encontrar
vulnerabilidades. En realidad, cualquier sistema construido por el hombre está
potencialmente afectado.
Linux no es una excepción, solo que en relación a Windows es mucho menos
vulnerable.
Bien es cierto que las vulnerabilidades encontradas son en número menores, pero
también es verdad que el ímpetu con el que se buscan los agujeros en Windows
es mucho mayor, debido a que algunos informáticos utilizan buena parte de su
tiempo y se divierten buscando manchas en el expediente de Microsoft.
27
MERCEDES TOZCANO
Sin embargo, la desventaja más negativa resulta que Microsoft va "jubilando" sus
sistemas operativos con el tiempo. Por ejemplo, con la entrada de 2003 ha
calificado de obsoletos a sus sistemas MS-DOS, Windows 3.x, Windows 95 y
Windows NT 3.5. Windows ME, con tan sólo unos pocos años de vida, se jubilaron
el 31 de diciembre de 2003.
A partir de entonces, Microsoft no ofrece más asistencia ni actualizaciones para
ellos, lo que puede dejar desprotegidos a miles de usuarios de todo el mundo, que
deberán actualizar su sistema operativo para disponer actualizaciones de
seguridad.
Diferencias entre Windows Y Linux
Unix y Windows parten de paradigmas completamente diferentes para la carga de
código en tiempo de ejecución. Antes de intentar construir un módulo con carga
dinámica, se debe comprender cómo funciona el sistema final del usuario.
En Unix, un fichero objeto compartido (shared object, .so) contiene código que
será utilizado por el programa junto con los nombres de las funciones y datos que
espera encontrar en el programa. Cuando el fichero se une al programa, se
cambian todas las referencias a dichas funciones y datos para que apunten a sus
direcciones de memoria reales en el programa. A grandes rasgos, se realiza una
operación de enlace.
En Windows, un fichero de biblioteca de enlace dinámico, (dynamic-link library,
.dll) no tiene referencias pendientes. En lugar de ello, todo acceso a funciones y
datos pasa por una tabla de consulta. Por ello, no hay que arreglar el código de la
DLL para que haga referencia a la memoria del programa. El programa ya utiliza la
tabla de búsquedas, lo que cambia en tiempo de ejecución es la tabla de
búsquedas para apuntar a las funciones y datos finales.
En Unix, sólo hay un tipo de fichero de biblioteca (.a) que contiene código de
varios ficheros objeto (.o). En el paso de enlace para crear un fichero objeto
compartido (.so), el enlazador puede encontrarse que desconoce dónde se define
un identificador. El enlazador lo buscará en los ficheros objeto y en las bibliotecas.
Si lo encuentra, incluirá todo el código del fichero objeto.
28
MERCEDES TOZCANO
En Windows, existen dos tipos de biblioteca, una biblioteca estática y una
biblioteca de importación (ambas llamadas .lib). Una biblioteca estática es como
un fichero .a de Unix: contiene código que se incluirá si es necesario. Una
biblioteca de importación se usas sólo para asegurar al enlazador que un
identificador concreto es legal y estará presente en el programa cuando se cargue
la DLL. Por ello, el enlazador utiliza la información de la biblioteca de importación
para construir la tabla de consulta para usar los identificadores no incluidos en la
DLL. Cuando se enlaza una aplicación o DLL, puede generarse una biblioteca de
importación, que tendrá que usarse para futuras DLLs que dependan de los
símbolos de la aplicación o DLL.
Supóngase que se están construyendo dos módulos de carga dinámica, B y C,
que han de compartir otro bloque de código A. En Unix, no se pasaría A.a al
enlazador para B.so y C.so; eso causaría que se incluyera dos veces y tanto B
como C tendrían su propio ejemplar. En Windows, al construir A.dll se construiría
A.lib. Sí se pasaría A.lib al enlazador tanto en B como en C. A.lib no contiene
código, sólo información que se usará en tiempo de ejecución para acceder al
código de A.
En Windows, usar una biblioteca de importación es análogo a usar "import spam";
proporciona acceso a los nombres de spam, pero no genera una copia aparte. En
Unix, enlazar con una biblioteca es más como "from spam import *"; sí genera una
copia aparte.
Diferencias entre Windows y Unix
Linux Contra Unix
En Los términos de características, Unix y Linux son bastante semejantes. Sin
embargo, el mayor la diferencia entre Unix y Linux es que Unix se diseñó
específicamente Para el networking. Linux corre perfectamente multa como un
sistema personal de Unix y En camareros grandes. Linux sostiene una mucha
gran variedad de ferretería que Unix y a causa del modelo Abierto de la Fuente,
cualquier conductor con toda seguridad ferretería Puede ser escrito para Linux tan
largo como alguien tiene el tiempo a hace así. Muchos las universidades y las
compañías comienzan al uso Linux en vez de Unix porque puede proporcionar la
funcionalidad de una estación de trabajo en la ferretería de PC En una fracción del
costo. Hay otras versiones libres de Unix disponibles Tal como FreeBSD.
29
MERCEDES TOZCANO
FreeBSD y Linux son semejantes pero basados en diferente Las metas y por lo
tanto diseñó diferentemente. La meta de Linux debía desarrollar un sistema libre
de Unix que se podría correr en ambos un nivel personal y en grande Los
camareros de la red. FreeBSD buscado sólo a modifica el código existente de
BSD Unix. Otra implementación económica de Unix es Minix, un Unix académico
Clone sobre que las versiones más temprano de Linux se basaron en. Sin
embargo, a pesar de todos los otros sistemas de Unix para se desarrollar y para
ser vendidos, pueden ser claramente Visto que cada vez mas usuarios giran hacia
Linux a corre sus sistemas.
Diferencia entre Linux y Unix
Ventajas de Linux
Linux es básicamente un duplicado de UNIX, lo que significa que incorpora
muchas de las ventajas de este importante sistema operativo.
En Linux pueden correr varios procesos a la vez de forma ininterrumpida como un
servidor de red al tiempo que un procesador de textos, una animación, copia de
archivos o revisar el correo electrónico.
Seguridad porque es un sistema operacional diseñado con la idea de Cliente Servidor con permisos de acceso y ejecución a cada usuario. Esto quiere decir
que varios usuarios pueden utilizar una misma maquina al tiempo sin interferir en
cada proceso.
Linux es software libre, casi gratuito. Linux es popular entre programadores y
desarrolladores e implica un espíritu de colaboración.
Linux integra una implementación completa de los diferentes protocolos y
estándares de red, con los que se puede conectar fácilmente a Internet y acceder
a todo tipo de información disponible.
Su filosofía y sus programas están dictados por el movimiento ``Open Source'' que
ha venido crecido en los últimos años y ha adquirido el suficiente fortaleza para
hacer frente a los gigantes de la industria del software.
Linux puede ser utilizado como una estación personal pero también como un
potente servidor de red.
30
MERCEDES TOZCANO
Linux incorpora una gama de sistemas de interfaz gráfica (ventanas) de igual o
mejor calidad que otras ofrecidas en muchos paquetes comerciales.
Posee el apoyo de miles de programadores a nivel mundial.
El paquete incluye el código fuente, lo que permite modificarlo de acuerdo a las
necesidades del usuario.
Utiliza varios formatos de archivo que son compatibles con casi todos los sistemas
operacionales utilizados en la actualidad.
Desventajas de Linux
Linux no cuenta con una empresa que lo respalde, por lo que no existe un
verdadero soporte como el de otros sistemas operativos.
La pendiente de aprendizaje es lenta.
No es tan fácil de usar como otros sistemas operativos, aunque actualmente
algunas distribuciones están mejorando su facilidad de uso, gracias al entorno de
ventanas, sus escritorios y las aplicaciones diseñadas específicamente para él,
cada día resulta más sencillo su integración y uso.
Documentación y terminología muy técnica.
Para usuarios corrientes, todavía no es un sistema de escritorio.
Funciona únicamente con proveedores de hardware que accedieron a la licencia
GPL y en algunas instancias no es compatible con variedad de modelos y marcas.
Requiere consulta, lectura e investigación en lista, foros o en bibliografía dedicada
al tema.
La configuración de dispositivos de entrada y salida no es trivial.
Muy sensible al hardware.
Muchas distribuciones e idiomas.
Hay que leer y entender código.
Desventajas de Windows
31
MERCEDES TOZCANO
Las limitaciones más importantes de esta versión en relación con XP Home son
las siguientes:
Limitaciones de actualización de Hardware.
Resolución máxima de pantalla permitida: 1024 x 768 pixeles.
No permite actualizar el sistema (no se puede hacer un upgrade a XP Home o
Profesional)
Sólo se pueden abrir 3 programas a la vez con 3 ventanas de cada programa. Por
ejemplo, sólo se permiten 3 conversaciones simultáneas del Messenger.
No se pueden compartir recursos (por ejemplo una impresora).
No hay posibilidad de conectarse en red.
No pueden crearse perfiles de distintos usuarios
No permite crear una contraseña de protección del sistema.
Principales ventajas
El tour de inicio al Wndows XP Starter es más detallado.
Cuenta con varios videos de introducción en castellano para el usuario
principiante. Se puede aprender desde como usar el Mouse hasta saber lo que es
un Firewall.
Tiene una gran cantidad de tutoriales.
Viene con 3 wallpapers del país de destino. El protector de pantalla es la bandera
nacional.
Opción de configuración automática para el PC
No viene con CD de instalación o de recuperación. El Starter posee una imagen
en el disco rígido de la nueva computadora.
Incluye los programas clásicos y habituales de Windows en versiones integras
pero limitadas de acuerdo a las prestaciones anteriormente reseñadas: Paint,
32
MERCEDES TOZCANO
Wordpad, Internet Explorer, Outlook Express, Windows Media Player, Windows
Messenger 4.7, Service Pack 2.
Unix es un sistema operativo de tiempo compartido, controla los recursos de una
computadora y los asigna entre los usuarios. Permite a los usuarios correr sus
programas. Controla los dispositivos de periféricos conectados a la máquina.
Además es un sistema multiusuario, en el que existe la portabilidad para la
implementación de distintas computadoras.
Características
Es un sistema operativo de tiempo compartido, controla los recursos de una
computadora y los asigna entre los usuarios. Permite a los usuarios correr sus
programas. Controla los dispositivos de periféricos conectados a la máquina.
Posee las siguientes características:
- Es un sistema operativo multiusuario, con
multiprocesamiento y procesamiento no interactivo.
capacidad
de
simular
- Está escrito en un lenguaje de alto nivel: C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente
adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de
archivos, cuentas y procesos.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
33
MERCEDES TOZCANO
El sistema se basa en un Núcleo llamado Kernel, que reside permanentemente en
la memoria, y que atiende a todas las llamadas del sistema, administra el acceso a
los archivos y el inicio o la suspensión de las tareas de los usuarios.
LA IMPORTANCIA DEL ANTIVIRUS
Son programas que se introducen en nuestros ordenadores de formas muy
diversas. Este tipo de programas son especiales ya que pueden producir efectos
no deseados y nocivos. Una vez el virus se haya introducido en el ordenador, se
colocará en lugares donde el usuario pueda ejecutarlos de manera no
intencionada. Hasta que no se ejecuta el programa infectado o se cumple una
determinada condición, el virus no actúa. Incluso en algunas ocasiones, los
efectos producidos por éste, se aprecian tiempo después de su ejecución
(playload).
Dos recomendaciones: 1) mantener siempre actualizado el antivirus y 2) si se
prueba alguno de estos 10 programas, desactivar primero el otro antivirus -en
caso de tener uno instalado en la PC-, ya que puede ocasionar problemas en el
buen funcionamiento del sistema.
1.Norton Antivirus 2004
Norton AntiVirus es la última herramienta de Symantec para protegerse de todo
tipo de virus, applets Java, controles ActiveX y códigos maliciosos. Como la
mayoría de los antivirus, el programa de Symantec protege la computadora
mientras navega por Internet, obtiene información de disquetes, CD`s o de una red
y comprueba los archivos adjuntos que se reciben por email.
2.McAfee VirusScan 7
McAfee VirusScan es una de las herramientas de seguridad más conocida por los
usuarios de todo el mundo. Esta nueva versión protege a la PC de posibles
infecciones a través del correo electrónico, de archivos descargados desde
Internet y de ataques a partir de applets de java y controles ActiveX.
Trae una nuevo motor de búsqueda y un potente filtro para Internet que permite
bloquear el acceso a sitios Web no deseados. Incluye una función llamada "Safe &
34
MERCEDES TOZCANO
Sound" que automáticamente realiza copias de seguridad de los documentos
mientras
están
abiertos.
3.F-Secure Antivirus 5.40
F-Secure contiene dos de los motores de búsquedas de virus más conocidos para
Windows: F-PROT y AVP. Se actualiza todos los días e incluye todo lo necesario
para proteger la PC contra los virus. Esta versión incluye un buscador que
funciona en segundo plano, buscadores basados en reglas para detectar virus
desconocidos y muchas opciones más para automatizar la detección de virus.
4.Trend PC-Cillin 2003
El PC-cillin es un potente y conocido antivirus que realiza automáticamente
búsquedas de virus basado en sus acciones y no en el código con el que fueron
creados. La versión de prueba caduca a los 30 días de uso.
5.Panda Antivirus Titanium 2.04.04
Titanium incorpora un nuevo motor hasta un 30 por ciento más rápido que sus
antecesores, con un alto nivel de protección y un sistema heurístico avanzado
para detectar posibles nuevos virus todavía desconocidos. Trae la tecnología
SmartClean, que se encarga de reparar los daños que en el sistema provocan
algunos
virus.
Se
actualiza
automáticamente.
6.Panda Antivirus Platinum
Otra de las versiones del popular antivirus de la empresa española Panda. Detecta
cualquier virus que se quiera entrometer en la computadora desde Internet y lo
hace antes de que llegue a la PC. También impide que entren virus por archivos
adjuntos o mensajería instantánea. Incluye un Firewall que detecta el movimiento
de cualquier hacker que quiera ingresar. Se actualiza todos los días a través de
35
MERCEDES TOZCANO
Internet.
7.Kaspersky Anti-virus
Vigila todas las áreas del sistema, incluyendo a virus que puedan permanecer en
la memoria, en los archivos comprimidos e incluso en los encriptados. También
protege a la computadora de cualquier mail ¿peligroso¿ que propicie el ataque de
troyanos y gusanos.
Es compatible con los clientes de correo Outlook, Eudora y Pegasus, entre otros.
Se actualiza automáticamente a través de Internet, en tanto y en cuanto el usuario
lo configure para tal función. Sirve para analizar la PC en busca de algún virus
pero también como escudo permanente para evitar el ingreso de cualquier virus.
8.ETrust EZ Antivirus
Es una alternativa interesante frente a las populares herramientas antivirus. ETrust
EZ detecta numerosos tipos de virus (incluyendo troyanos y gusanos) y una de
sus principales ventajas es el poco tamaño que ocupa en la memoria del disco
(menos de 4 MB). Puede ser configurado para que actualice periódicamente la
lista de virus y para que revise la PC con la frecuencia que sea conveniente para
el usuario.
Una función interesante es el ¿Incremental Scaning¿, un mecanismo con el cual
un archivo no se vuelve a escanear si no fue modificado desde la última vez que
se revisó. Esto elimina la engorrosa tarea de analizar todos los archivos cada vez
que
se
pasa
el
antivirus.
9.Avast! Home Edition
La versión hogareña de Avast! Antivirus tiene todas sus características disponibles
sin restricciones, entre ellas escaneos manuales (a pedido del usuario), por
acceso (para proteger contra la ejecución de programas no deseados) y de emails
entrantes y salientes. Los más precavidos también pueden dejarlo en forma
residente.
36
MERCEDES TOZCANO
Tras su instalación se integra al menú del botón derecho del Explorer. La
actualización de este antivirus se realiza online en forma manual, automática o
programada. Se puede utilizar sin cargo durante 90 días. Para continuar usándolo
después de este período hay que registrarse como usuario, que no implica ningún
costo.
Viene
en
Español.
10.AVG Antivirus
Es un antivirus que cuenta con las funciones comunes en este tipo de
herramientas: protección de la PC contra virus, detección de archivos infectados y
escaneo de mails. Permite realizar actualizaciones gratuitas y contiene una base
de datos con los virus más importantes.
QUÉ SON LAS TIC
Son las tecnologías de la Información y Comunicación, es decir, son aquellas
herramientas computacionales e informáticas que procesan, sintetizan, recuperan
y presentan información representada de la más variada forma. Es un conjunto de
herramienta, soportes y canales para el tratamiento y acceso a la información,
para dar forma, registrar, almacenar y difundir contenidos digitalizados. Para todo
tipo de aplicaciones educativas, las TIC’s son medios y no fines. Por lo tanto, son
instrumentos y materiales de construcción que facilitan el aprendizaje, el desarrollo
de habilidades y distintas formas de aprender, estilos y ritmos de los aprendices.
VENTAJAS Y DESVENTAJAS DE LAS TIC´s EN EL AMBITO EDUCATIVO
VENTAJAS DESVENTAJAS
• Aprendizaje cooperativo. Los instrumentos que proporcionan las TICs facilitan
el trabajo en grupo y el cultivo de actitudes sociales ya que propician el
intercambio de ideas y la cooperación.
37
MERCEDES TOZCANO
• Alto grado de interdisciplinariedad. Las tareas educativas realizadas con
computadoras permiten obtener un alto grado de interdisciplinariedad ya que el
computador debido a su versatilidad y gran capacidad de almacenamiento permite
realizar diversos tipos de tratamiento de una información muy amplia y variada.
• Alfabetización tecnológica (digital,
audiovisual). Hoy día aún conseguimos en nuestras comunidades educativas
algún grupo de estudiantes y profesores que se quedan rezagados ante el avance
de las tecnologías, sobretodo la referente al uso del computador. Por suerte cada
vez es menor ese grupo y tienden a desaparecer. Dada las necesidades de
nuestro mundo moderno, hasta para pagar los servicios
38
MERCEDES TOZCANO