Download partes de un computador
Document related concepts
Transcript
TALLER DE IMFORMATICA MERCEDES TOZCANO COORPORIENTE ADMINISTRACION DE EMPRESAS Y NEGOCIOS INTERNACIONALES SARAVENA-ARAUCA AÑO 2013 1 MERCEDES TOZCANO TABLA DE CONTENIDO Contenido INTRODUCCION: ................................................................................................... 3 OBJETIVO GENERAL ............................................................................................ 4 OBJETIVOS ESPECIFICOSBJ ............................................................................... 5 HISTORIA DE LA COMPUTADORA ....................................................................... 6 LA HISTORIA DE INTERNET ............................................................................... 11 DEFINISION DE HARDWARE Y SOFTWARE ..................................................... 13 PARTES DE UN COMPUTADOR ......................................................................... 14 LA IMPORTANCIA DEL ANTIVIRUS .................................................................... 34 QUÉ SON LAS TIC ............................................................................................... 37 VENTAJAS Y DESVENTAJAS DE LAS TIC´s EN EL AMBITO EDUCATIVO ...... 37 2 MERCEDES TOZCANO INTRODUCCION Es de vital importancia aprender y conocer las herramientas para lograr un mejor desempeño, es decir gracias a los conocimientos adquiridos logramos bases fundamentales que nos servirán para mejorar la interacción entre los equipos, los programas, obteniendo un alto desempeño para proyectar y manejar la informática. Se dice que el conocimiento es poder, y en este mundo globalizado la necesidad por mantenerse informado y a la vanguardia es de vital importancia para poder competir ya que el que tiene los mejores medios de comunicación, puede desarrollarse más ampliamente, tomar mejores decisiones, aspirar a mejores puestos laborales e intelectuales. Así como un mejor salario y por ende aún mejor nivel de vida, ahora con el crecimiento de la tecnología es más fácil, sencillo poder comunicarse y utilizar la información que antes sería imposible o casi nula de conseguir, entonces aprovechemos la etapa de la revolución informática. 3 MERCEDES TOZCANO OBJETIVO GENERAL Otorgar los conocimientos necesarios de sistemas para que pueda Aplicarlos eficientemente en la elaboración, edición e impresión de hojas de cálculo, tablas de bases de datos y hojas de gráficos documentos y demas programas necesarias. 4 MERCEDES TOZCANO OBJETIVOS ESPECIFICOSBJ Fortalecer la estructura funcional de sus diferentes áreas de trabajo que permita su colaboración y desarrollo, para atender eficientemente las necesidades de mi empresa, correspondientes a servicios de informática, comunicaciones y telecomunicaciones, de sus distintas dependencias. Elaborar planes y programas, con metas y objetivos claramente definidos, que permitan establecer la pauta del crecimiento y desarrollo de sus áreas de trabajo. Los demás que le sean encomendados y que se deriven de la naturaleza de sus funciones. 5 MERCEDES TOZCANO HISTORIA DE LA COMPUTADORA La Informática es una compleja disciplina que puede considerarse como una de las grandes culminaciones de la Humanidad y cuyas posibilidades aún no se han agotado. Sus aplicaciones en el campo de la genética han culminado en la codificación del genoma humano y, en su fusión con la Biología, la Bioinformática posee un potencial extraordinario que facilita el descubrir las funciones de las proteínas y que permite la extracción de información de grandes bases de datos para correlacionar secuencias de ADN a una velocidad inusitada. Informática’ es un neologismo acuñado por el francés Philippe Dreyfus en 1962 que hunde sus raíces en lo más profundo de las abstracciones creadas por la mente del hombre, y su evolución corre paralela a descubrimientos propios de otras muchas disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la Física y la Metafísica. Incluso la Religión también ha tenido su influencia. Del Abaco a la tarjeta perforada EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo. LA PASCALINA; El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos artiméticos. LA LOCURA DE BABBAGE, Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en 6 MERCEDES TOZCANO los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica". En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía suma r, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de futbol y necesitaría accionarse por una locomotora. Los escépticos l e pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte. Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Ironicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de pro grama secuencia. LA PRIMERA TARJETA PERFORADA; El telar de tejido, inventado en 1801 por el Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora. Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo 10 años para terminarlo. La oficina de censos comisiono al estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. 7 MERCEDES TOZCANO Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 a años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dió a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular. Pioneros de la computación ATANASOFF Y BERRY Una antigua patente de un dispositivo que mucha genté creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dió el credito a John V. Atanasoff como el inventor de la computador a digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Com puter). Un estudiante graduado, Clifford Berry,fue una útil ayuda en la construcción de la computadora ABC. Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuezo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una p laca con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física." Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calcul ara tablas de trayectoria para el ejército estadounidense. El producto final, una computadora electrónica completamente operacional a gran 8 MERCEDES TOZCANO escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numéric o y calculador electrónico. La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la primera generación de computadoras. En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria d e la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir computadora aut omática electrónica de variable discreta), desarrollada por Von Neumann, Eckert y Mauchly. Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de programa almacenado podría ser utilizada para v arias aplicaciones cargando y ejecutando el programa apropiado. Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las 9 MERCEDES TOZCANO computadoras utilizando medios distintos a los numeros binarios. En 1952 Grace Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (COmmon Business-Oriented Langu aje). Generaciones de computadoras Primera Generación de Computadoras (de 1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápida mente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una Cia. privada y construyendo UNIVAC I, que el Comité del censó utilizó para evaluar el de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el c ontrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fuen introducido e l modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. Segunda Generación 10 MERCEDES TOZCANO (1959-1964) Transistor Compatibilidad limitada El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguia siendo una porción significativa del presupuesto de una Compañia. Las computadoras de la segunda generación también utilizaban redes de nucleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales pod podrian almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran substancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. LA HISTORIA DE INTERNET se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de ordenadores diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones. La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web (WWW), que se hizo común. 11 MERCEDES TOZCANO La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com. Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial. Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora). "una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones que existen hoy en día de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas" J.C.R Licklider1 En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Mónica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó. "Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que 12 MERCEDES TOZCANO irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él. Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet." Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times2 Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.3 La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras. Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes. DEFINISION DE HARDWARE Y SOFTWARE Hardware es todo lo que puedes tocar es decir todos los compoentes fisicos de la computadora, por ejemplo el mouse, el monitor, el cpu, el teclado , la impresora, memorias usb etc. Software es todo lo que no es fisico que no puedes tocar por ejemplo el sistema operativo como windows, programas como microsoft office, los antivirus, el messenger es decir sofware son todos los programas de compitacion que una vez instalados en la computadora solo se manejan virtualmente es decir no puedes tocarlos no existen fisicamente solo virtualmente. 13 MERCEDES TOZCANO Por ejemplo sofware un antivirus compras el disco lo puedes tocar pero ese no es el antivirus es solo el medio de transporte donde lo llevas el verdadero antivirus es el que una vez instalado en la computadora te protege y ese ya no es fisico es virtual no lo puedes tocar, en cambio un teclado que es hardware siempre va aser fisico siempre lo vas a poder tocar con tus manos directamente. PARTES DE UN COMPUTADOR Hardware Es un termino proveniente del inglés definido por la RAE como el conjunto de elementos materiales que conforman una computadora, sin embargo, es usual que sea utilizado en una forma más amplia, generalmente para describir componentes físicos de una tecnología, así el hardware puede ser de un equipo militar importante, un equipo electrónico, un equipo informático o un robot. En informática también se aplica a los periféricos de una computadora tales como el disco duro, CD-ROM, disquetera (floppy). En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado. Tipos de Hardware 1. Hardware de un Servidor: Se clasifica generalmente en básico y complementario, entendiendo por básico todo aquel dispositivo necesario para iniciar el funcionamiento de la computadora, y el complementario, como su nombre indica, sirve para realizar funciones específicas (más allá de las básicas) no estrictamente necesarias para el funcionamiento de la computadora. Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas que consisten en operaciones aritmetilógicas y de entrada/salida; reciben entradas (datos para su procesamiento), producen salidas (resultados del procesamiento), procesan y almacenan información. 2. Periféricos de entrada (E) Son los que permiten al usuario que ingrese información desde el exterior. Entre ellos podemos encontrar: teclado, mouse o ratón, escáner, SAI (Sistema de Alimentación Ininterrumpida), micrófono, cámara web , lectores de código de barras, Joystick, etc. 14 MERCEDES TOZCANO Ratón o Mouse: Es un dispositivo empleado para señalar en la pantalla objetos u opciones a elegir; desplazándose sobre una superficie según el movimiento de la mano del usuario. Normalmente se utilizan dos botones del ratón, el principal y el secundario que corresponden con el botón izquierdo y derecho respectivamente. Si eres zurdo puedes cambiar esta configuración en Configuración, Panel de Control, icono Mouse y activar la casilla "Zurdo". Con el botón principal se realizan las operaciones más usuales como hacer clic, doble clic y arrastrar. Mientras que con el botón secundario normalmente aparece el menú contextual. Teclado: Es el periférico de entrada por excelencia, introduce texto escrito en la computadora. Este dispositivo ha ido evolucionando con la incorporación de teclas y nuevas funciones, pulsando las mismas se introducen números, letras u otros caracteres, también se puede realizar determinadas funciones al combinar varias de ellas. Entre las partes del teclado podemos distinguir: el teclado numérico, que facilita el trabajo con datos numéricos, las teclas de navegación que permiten ir rápidamente al principio de una línea, pagina o documento, las teclas especiales y de función. Escáner: Se emplea para digitalizar una imagen y sonidos, convirtiéndolos en archivos manejables en la computadora, solo se requiere un micrófono que se conecta a la carcasa de la misma. La resolución en un escáner se mide en puntos por pulgada y se expresa con 2 números. 3. Periféricos de salida (S) Son los que muestran al usuario el resultado de las operaciones realizadas por el PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc. Monitor: es el dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo del ordenador o computadora. El término monitor se refiere normalmente a la pantalla de vídeo y su carcasa. El monitor se conecta al adaptador de vídeo mediante un cable. La calidad del monitor se mide por su tamaño (especificado como la longitud de la diagonal de la pantalla, medida en pulgadas), el tamaño del punto, la frecuencia de barrido horizontal y la frecuencia de barrido vertical o frecuencia de refresco. Impresora: periférico para ordenador o computadora que traslada el texto o la imagen generada por computadora a papel u otro medio, como transparencias o diversos tipos de fibras. Las impresoras se pueden dividir en categorías siguiendo diversos criterios. La distinción más común se hace entre las que son de impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta e impresoras láser. 15 MERCEDES TOZCANO 4. Unidad Central de Procesamiento: CPU Es el componente que interpreta instrucciones y procesa datos. Es el elemento fundamental, el cerebro de la computadora. Su papel sería equiparable al de un director de orquesta, cuyo cometido es que el resto de componentes funcionen correctamente y de manera coordinada. Las unidades centrales de proceso no sólo están presentes en los ordenadores personales, sino en todo tipo de dispositivos que incorporan una cierta "inteligencia" electrónica como pueden ser: televisores, automóviles, calculadores, aviones, teléfonos móviles, juguetes y muchos más. 5. La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU): Es un circuito digital que calcula operaciones aritméticas (como adición, substracción, etc.) y operaciones lógicas (como OR, NOT, XOR, etc.), entre dos números. Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el pitido del temporizador, etc... 6. Unidades de Almacenamiento: Estas unidades se encargan de guardar los datos que se producen durante el funcionamiento del procesador para un posterior uso, o simplemente para guardar determinados datos como, fotografías, documentos, etc. De manera que podemos decir que los datos en una computadora se guardan en las unidades de almacenamiento de forma permanente o temporal. Estas unidades se clasifican en: Unidades de almacenamiento primario: incluye la memoria de acceso aleatorio (RAM), la cual se compone de uno o más chips y se utiliza como memoria de trabajo para programas y datos. Es un tipo de memoria temporal que pierde sus datos cuando se queda sin energía; y la memoria de solo lectura (ROM), la cual está destinada a ser leída y no destructible, es decir, que no se puede escribir sobre ella y que conserva intacta la información almacenada. Unidades de almacenamiento secundario: Tenemos el disco duro, el cual es el dispositivo encargado de almacenar información de forma permanente en una computadora; los discos compactos o CD, que son un soporte digital óptico utilizado para almacenar cualquier tipo de información; los DVD o disco de video digital, los cuales son un formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio; y los dispositivos de almacenamiento extraíbles. Un sistema operativo (cuyo acrónimo es SO) es un conjunto de programas destinados a permitir la comunicación del usuario con un computador y 16 MERCEDES TOZCANO gestionar sus recursos de una forma eficaz. Comienza a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina desde los niveles más básicos. Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos que podamos utilizar sin necesidad de estar conectados a una computadora y que utilicen microprocesadores para funcionar, ya que gracias a estos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios... y computadoras). A. Tipos de sistemas operativos 1 Sistemas Operativos por su Estructura Según [Alcal92], se deben observar dos tipos de requisitos cuando se construye un sistema operativo, los cuales son: Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al uso al que se le quiere destinar. Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad. A continuación se describen las distintas estructuras que presentan los actuales sistemas operativos para satisfacer las necesidades que de ellos se quieren obtener. 1.1 Estructura monolítica. 17 MERCEDES TOZCANO Es la estructura de los primeros sistemas operativos constituídos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra (Ver Fig. 2). Las características fundamentales de este tipo de estructura son: Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador. Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento. Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc. Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones. 1.2 Estructura jerárquica. A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía subpartes y esto organizado en forma de niveles. Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interface con el resto de elementos. Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se utilizó con fines didácticos (Ver Fig. 3). Se puede pensar también en estos sistemas como si fueran `multicapa'. Multics y Unix caen en esa categoría. [Feld93]. 1.3 Máquina Virtual. Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos sistemas operativos dando la sensación de ser varias máquinas diferentes. 18 MERCEDES TOZCANO El núcleo de estos sistemas operativos se denomina monitor virtual y tiene como misión llevar a cabo la multiprogramación, presentando a los niveles superiores tantas máquinas virtuales como se soliciten. Estas máquinas virtuales no son máquinas extendidas, sino una réplica de la máquina real, de manera que en cada una de ellas se pueda ejecutar un sistema operativo diferente, que será el que ofrezca la máquina extendida al usuario (Ver Fig. 5). 1.4 Cliente-servidor ( Microkernel) El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas. Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales. El núcleo tiene como misión establecer la comunicación entre los clientes y los servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo, un programa de aplicación normal es un cliente que llama al servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un dispositivo concreto. A su vez, un proceso cliente puede 19 MERCEDES TOZCANO actuar como servidor para otro." [Alcal92]. Este paradigma ofrece gran flexibilidad en cuanto a los servicios posibles en el sistema final, ya que el núcleo provee solamente funciones muy básicas de memoria, entrada/salida, archivos y procesos, dejando a los servidores proveer la mayoría que el usuario final o programador puede usar. Estos servidores deben tener mecanismos de seguridad y protección que, a su vez, serán filtrados por el núcleo que controla el hardware. 2 Sistemas Operativos por Servicios Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Esta clasificación se comprende fácilmente con el cuadro sinóptico que a continuación se muestra en la Fig. 6. 2.1 Monousuarios 20 MERCEDES TOZCANO Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón. 2.2 Multiusuarios Los sistemas operativos Multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente. 2.3 Monotareas Los sistemas monotarea son aquellos que sólo permiten una tarea a la vez por usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea a la vez. 2.4 Multitareas Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias labores al mismo tiempo. Por ejemplo, puede estar editando el código fuente de un programa durante su depuración mientras compila otro programa, a la vez que está recibiendo correo electrónico en un proceso en background. Es común encontrar en ellos interfaces gráficas orientadas al uso de menús y el ratón, lo cual permite un rápido intercambio entre las tareas para el usuario, mejorando su productividad. 2.5 Uniproceso Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese más de uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y MacOS. 2.6 Multiproceso 21 MERCEDES TOZCANO Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica o asimétricamente. Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos. Cuando se trabaja de manera simétrica, los procesos o partes de ellos (threads) son enviados indistintamente a cualesquira de los procesadores disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este esquema. Se dice que un thread es la parte activa en memoria y corriendo de un proceso, lo cual puede consistir de un área de memoria, un conjunto de registros con valores específicos, la pila y otros valores de contexto. Us aspecto importante a considerar en estos sistemas es la forma de crear aplicaciones para aprovechar los varios procesadores. Existen aplicaciones que fueron hechas para correr en sistemas monoproceso que no toman ninguna ventaja a menos que el sistema operativo o el compilador detecte secciones de código paralelizable, los cuales son ejecutados al mismo tiempo en procesadores diferentes. Por otro lado, el programador puede modificar sus algoritmos y aprovechar por sí mismo esta facilidad, pero esta última opción las más de las veces es costosa en horas hombre y muy tediosa, obligando al programador a ocupar tanto o más tiempo a la paralelización que a elaborar el algoritmo inicial. 3. Sistemas Operativos por la Forma de Ofrecer sus Servicios Esta clasificación también se refiere a una visión externa, que en este caso se refiere a la del usuario, el cómo accesa los servicios. Bajo esta clasificación se pueden detectar dos tipos principales: sistemas operativos de red y sistemas operativos distribuídos. 3.1 Sistemas Operativos de Red Los sistemas operativos de red se definen como aquellos que tiene la capacidad de interactuar con sistemas operativos en otras computadoras por medio de un medio de transmisión con el objeto de intercambiar información, transferir archivos, ejecutar comandos remotos y un sin fin de otras actividades. El punto crucial de estos sistemas es que el usuario debe saber la sintaxis de un conjunto 22 MERCEDES TOZCANO de comandos o llamadas al sistema para ejecutar estas operaciones, además de la ubicación de los recursos que desee accesar. Por ejemplo, si un usuario en la computadora hidalgo necesita el archivo matriz.pas que se localiza en el directorio /software/código en la computadora morelos bajo el sistema operativo UNIX, dicho usuario podría copiarlo a través de la red con los comandos siguientes: hidalgo% hidalgo% rcp morelos:/software/codigo/matriz.pas . hidalgo% En este caso, el comando rcp que significa "remote copy" trae el archivo indicado de la computadora morelos y lo coloca en el directorio donde se ejecutó el mencionado comando. Lo importante es hacer ver que el usuario puede accesar y compartir muchos recursos. 3.2 Sistemas Operativos Distribuidos Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando integrar recursos (impresoras, unidades de respaldo, memoria, procesos, unidades centrales de proceso) en una sola máquina virtual que el usuario accesa en forma transparente. Es decir, ahora el usuario ya no necesita saber la ubicación de los recursos, sino que los conoce por nombre y simplementa los usa como si todos ellos fuesen locales a su lugar de trabajo habitual. Todo lo anterior es el marco teórico de lo que se desearía tener como sistema operativo distribuido, pero en la realidad no se ha conseguido crear uno del todo, por la complejidad que suponen: distribuir los procesos en las varias unidades de procesamiento, reintegrar sub-resultados, resolver problemas de concurrencia y paralelismo, recuperarse de fallas de algunos recursos distribuidos y consolidar la protección y seguridad entre los diferentes componentes del sistema y los usuarios. [Tan92]. Los avances tecnológicos en las redes de área local y la creación de microprocesadores de 32 y 64 bits lograron que computadoras mas o menos baratas tuvieran el suficiente poder en forma autónoma para desafiar en cierto grado a los mainframes, y a la vez se dio la posibilidad de intercomunicarlas, sugiriendo la oportunidad de partir procesos muy pesados en cálculo en unidades más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los sub-resultados, creando así una máquina virtual en la red que exceda en poder a un mainframe. El sistema integrador de los microprocesadores que hacer ver a las varias memorias, procesadores, y todos los demás recursos como una sola entidad en 23 MERCEDES TOZCANO forma transparente se le llama sistema operativo distribuido. Las razones para crear o adoptar sistemas distribuidos se dan por dos razones principales: por necesidad ( debido a que los problemas a resolver son inherentemente distribuidos ) o porque se desea tener más confiabilidad y disponibilidad de recursos. En el primer caso tenemos, por ejemplo, el control de los cajeros automáticos en diferentes estados de la república. Ahí no es posible ni eficiente mantener un control centralizado, es más, no existe capacidad de cómputo y de entrada/salida para dar servicio a los millones de operaciones por minuto. En el segundo caso, supóngase que se tienen en una gran empresa varios grupos de trabajo, cada uno necesita almacenar grandes cantidades de información en disco duro con una alta confiabilidad y disponibilidad. La solución puede ser que para cada grupo de trabajo se asigne una partición de disco duro en servidores diferentes, de manera que si uno de los servidores falla, no se deje dar el servicio a todos, sino sólo a unos cuantos y, más aún, se podría tener un sistema con discos en espejo ( mirror ) a través de la red,de manera que si un servidor se cae, el servidor en espejo continúa trabajando y el usuario ni cuenta se da de estas fallas, es decir, obtiene acceso a recursos en forma transparente. 3.2.1 Ventajas de los Sistemas Distribuidos En general, los sistemas distribuidos (no solamente los sistemas operativos) exhiben algunas ventajas sobre los sistemas centralizados que se describen enseguida. Economía: El cociente precio/desempeño de la suma del poder de los procesadores separados contra el poder de uno solo centralizado es mejor cuando están distribuídos. Velocidad: Relacionado con el punto anterior, la velocidad sumada es muy superior. Confiabilidad: Si una sola máquina falla, el sistema total sigue funcionando. Crecimiento: El poder total del sistema puede irse incrementando al añadir pequeños sistemas, lo cual es mucho más difícil en un sistema centralizado y caro. Distribución: Algunas aplicaciones requieren de por sí una distribución física. 24 MERCEDES TOZCANO Por otro lado, los sistemas distribuídos también exhiben algunas ventajas sobre sistemas aislados. Estas ventajas son: Compartir datos: Un sistema distribuído permite compartir datos más fácilmente que los sistemas aislados, que tendrian que duplicarlos en cada nodo para lograrlo. Compartir dispositivos: Un sistema distribuído permite accesar dispositivos desde cualquier nodo en forma transparente, lo cual es imposible con los sistemas aislados. El sistema distribuído logra un efecto sinergético. Comunicaciones: La comunicación persona a persona es factible en los sistemas distribuídos, en los sistemas aislados no. _ Flexibilidad: La distribución de las cargas de trabajo es factible en el sistema distribuídos, se puede incrementar el poder de cómputo. 3.2.2 Desventajas de los Sistemas Distribuídos Así como los sistemas distribuídos exhiben grandes ventajas, también se pueden identificar algunas desventajas, algunas de ellas tan serias que han frenado la producción comercial de sistemas operativos en la actualidad. El problema más importante en la creación de sistemas distribuídos es el software: los problemas de compartición de datos y recursos es tan complejo que los mecanismos de solución generan mucha sobrecarga al sistema haciéndolo ineficiente. El checar, por ejemplo, quiénes tienen acceso a algunos recursos y quiénes no, el aplicar los mecanismos de protección y registro de permisos consume demasiados recursos. En general, las soluciones presentes para estos problemas están aún en pañales. Otros problemas de los sistemas operativos distribuídos surgen debido a la concurrencia y al paralelismo. Tradicionalmente las aplicaiones son creadas para computadoras que ejecutan secuencialmente, de manera que el identificar secciones de código `paralelizable' es un trabajo ardúo, pero necesario para dividir un proceso grande en sub-procesos y enviarlos a diferentes unidades de procesamiento para lograr la distribución. Con la concurrencia se deben implantar mecanismos para evitar las condiciones de competencia, las postergaciones indefinidas, el ocupar un recurso y estar esperando otro, las condiciones de espera circulares y , finalmente, los "abrazos mortales" (deadlocks). Estos problemas de por sí se presentan en los sistemas operativos multiusuarios o 25 MERCEDES TOZCANO multitareas, y su tratamiento en los sistemas distribuídos es aún más complejo, y por lo tanto, necesitará de algoritmos más complejos con la inherente sobrecarga esperada. Características Administración de tareas: Monotarea: Si solamente puede ejecutar un proceso (aparte de los procesos del propio S.O.) en un momento dado. Una vez que empieza a ejecutar un proceso, continuará haciéndolo hasta su finalización o interrupción. Multitarea: Si es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de S.O. normalmente asigna los recursos disponibles (CPU, memoria, periféricos) de forma alternada a los procesos que los solicitan, de manera que el usuario percibe que todos funcionan a la vez, de forma concurrente. Administración de usuarios: Monousuario: Si sólo permite ejecutar los programas de un usuario al mismo tiempo. Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus programas, accediendo a la vez a los recursos de la computadora. Normalmente estos SS.OO. utilizan métodos de protección de datos, de manera que un programa no pueda usar o cambiar los datos de otro usuario. Manejo de recursos: Centralizado: Si permite utilizar los recursos de una sola computadora. Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... ) de más de una computadora al mismo tiempo. Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux y Unix. Sistemas operativos mas utilizados Si comparamos Linux con Windows 95/98/XP encontramos las siguientes ventajas e inconvenientes: 26 MERCEDES TOZCANO Precio: Linux es libre, flexible, gratuito, configurable, eficiente, no requiere hardware caro, no obliga a cambiar continuamente la versión del software. Windows es un software no gratuito y poco flexible, ademas de que continuamente cambia la versión de software. Compatibilidad: Linux requiere mas conocimientos de informática, no hay sustituto directo para todas las aplicaciones, algunos dispositivos de última generación no están soportados (cada vez son menos). Windows es un software mucho mas compatible, tiene mucho mayor soporte en cuanto a dispositivos y requiere el mínimo de conocimientos de informática. Usuarios: Linux es un software menos comercial por lo cual es menos utilizado ya que como es gratuito la mayoría de usuarios no le tienen toda la confianza. Windows es un software muy publicitado lo cual lo convierte en un producto muy comercial además de que cuenta con un numero mucho mayor de usuarios alrededor del mundo. Seguridad: Windows no es el único sistema operativo donde podemos encontrar vulnerabilidades. En realidad, cualquier sistema construido por el hombre está potencialmente afectado. Linux no es una excepción, solo que en relación a Windows es mucho menos vulnerable. Bien es cierto que las vulnerabilidades encontradas son en número menores, pero también es verdad que el ímpetu con el que se buscan los agujeros en Windows es mucho mayor, debido a que algunos informáticos utilizan buena parte de su tiempo y se divierten buscando manchas en el expediente de Microsoft. 27 MERCEDES TOZCANO Sin embargo, la desventaja más negativa resulta que Microsoft va "jubilando" sus sistemas operativos con el tiempo. Por ejemplo, con la entrada de 2003 ha calificado de obsoletos a sus sistemas MS-DOS, Windows 3.x, Windows 95 y Windows NT 3.5. Windows ME, con tan sólo unos pocos años de vida, se jubilaron el 31 de diciembre de 2003. A partir de entonces, Microsoft no ofrece más asistencia ni actualizaciones para ellos, lo que puede dejar desprotegidos a miles de usuarios de todo el mundo, que deberán actualizar su sistema operativo para disponer actualizaciones de seguridad. Diferencias entre Windows Y Linux Unix y Windows parten de paradigmas completamente diferentes para la carga de código en tiempo de ejecución. Antes de intentar construir un módulo con carga dinámica, se debe comprender cómo funciona el sistema final del usuario. En Unix, un fichero objeto compartido (shared object, .so) contiene código que será utilizado por el programa junto con los nombres de las funciones y datos que espera encontrar en el programa. Cuando el fichero se une al programa, se cambian todas las referencias a dichas funciones y datos para que apunten a sus direcciones de memoria reales en el programa. A grandes rasgos, se realiza una operación de enlace. En Windows, un fichero de biblioteca de enlace dinámico, (dynamic-link library, .dll) no tiene referencias pendientes. En lugar de ello, todo acceso a funciones y datos pasa por una tabla de consulta. Por ello, no hay que arreglar el código de la DLL para que haga referencia a la memoria del programa. El programa ya utiliza la tabla de búsquedas, lo que cambia en tiempo de ejecución es la tabla de búsquedas para apuntar a las funciones y datos finales. En Unix, sólo hay un tipo de fichero de biblioteca (.a) que contiene código de varios ficheros objeto (.o). En el paso de enlace para crear un fichero objeto compartido (.so), el enlazador puede encontrarse que desconoce dónde se define un identificador. El enlazador lo buscará en los ficheros objeto y en las bibliotecas. Si lo encuentra, incluirá todo el código del fichero objeto. 28 MERCEDES TOZCANO En Windows, existen dos tipos de biblioteca, una biblioteca estática y una biblioteca de importación (ambas llamadas .lib). Una biblioteca estática es como un fichero .a de Unix: contiene código que se incluirá si es necesario. Una biblioteca de importación se usas sólo para asegurar al enlazador que un identificador concreto es legal y estará presente en el programa cuando se cargue la DLL. Por ello, el enlazador utiliza la información de la biblioteca de importación para construir la tabla de consulta para usar los identificadores no incluidos en la DLL. Cuando se enlaza una aplicación o DLL, puede generarse una biblioteca de importación, que tendrá que usarse para futuras DLLs que dependan de los símbolos de la aplicación o DLL. Supóngase que se están construyendo dos módulos de carga dinámica, B y C, que han de compartir otro bloque de código A. En Unix, no se pasaría A.a al enlazador para B.so y C.so; eso causaría que se incluyera dos veces y tanto B como C tendrían su propio ejemplar. En Windows, al construir A.dll se construiría A.lib. Sí se pasaría A.lib al enlazador tanto en B como en C. A.lib no contiene código, sólo información que se usará en tiempo de ejecución para acceder al código de A. En Windows, usar una biblioteca de importación es análogo a usar "import spam"; proporciona acceso a los nombres de spam, pero no genera una copia aparte. En Unix, enlazar con una biblioteca es más como "from spam import *"; sí genera una copia aparte. Diferencias entre Windows y Unix Linux Contra Unix En Los términos de características, Unix y Linux son bastante semejantes. Sin embargo, el mayor la diferencia entre Unix y Linux es que Unix se diseñó específicamente Para el networking. Linux corre perfectamente multa como un sistema personal de Unix y En camareros grandes. Linux sostiene una mucha gran variedad de ferretería que Unix y a causa del modelo Abierto de la Fuente, cualquier conductor con toda seguridad ferretería Puede ser escrito para Linux tan largo como alguien tiene el tiempo a hace así. Muchos las universidades y las compañías comienzan al uso Linux en vez de Unix porque puede proporcionar la funcionalidad de una estación de trabajo en la ferretería de PC En una fracción del costo. Hay otras versiones libres de Unix disponibles Tal como FreeBSD. 29 MERCEDES TOZCANO FreeBSD y Linux son semejantes pero basados en diferente Las metas y por lo tanto diseñó diferentemente. La meta de Linux debía desarrollar un sistema libre de Unix que se podría correr en ambos un nivel personal y en grande Los camareros de la red. FreeBSD buscado sólo a modifica el código existente de BSD Unix. Otra implementación económica de Unix es Minix, un Unix académico Clone sobre que las versiones más temprano de Linux se basaron en. Sin embargo, a pesar de todos los otros sistemas de Unix para se desarrollar y para ser vendidos, pueden ser claramente Visto que cada vez mas usuarios giran hacia Linux a corre sus sistemas. Diferencia entre Linux y Unix Ventajas de Linux Linux es básicamente un duplicado de UNIX, lo que significa que incorpora muchas de las ventajas de este importante sistema operativo. En Linux pueden correr varios procesos a la vez de forma ininterrumpida como un servidor de red al tiempo que un procesador de textos, una animación, copia de archivos o revisar el correo electrónico. Seguridad porque es un sistema operacional diseñado con la idea de Cliente Servidor con permisos de acceso y ejecución a cada usuario. Esto quiere decir que varios usuarios pueden utilizar una misma maquina al tiempo sin interferir en cada proceso. Linux es software libre, casi gratuito. Linux es popular entre programadores y desarrolladores e implica un espíritu de colaboración. Linux integra una implementación completa de los diferentes protocolos y estándares de red, con los que se puede conectar fácilmente a Internet y acceder a todo tipo de información disponible. Su filosofía y sus programas están dictados por el movimiento ``Open Source'' que ha venido crecido en los últimos años y ha adquirido el suficiente fortaleza para hacer frente a los gigantes de la industria del software. Linux puede ser utilizado como una estación personal pero también como un potente servidor de red. 30 MERCEDES TOZCANO Linux incorpora una gama de sistemas de interfaz gráfica (ventanas) de igual o mejor calidad que otras ofrecidas en muchos paquetes comerciales. Posee el apoyo de miles de programadores a nivel mundial. El paquete incluye el código fuente, lo que permite modificarlo de acuerdo a las necesidades del usuario. Utiliza varios formatos de archivo que son compatibles con casi todos los sistemas operacionales utilizados en la actualidad. Desventajas de Linux Linux no cuenta con una empresa que lo respalde, por lo que no existe un verdadero soporte como el de otros sistemas operativos. La pendiente de aprendizaje es lenta. No es tan fácil de usar como otros sistemas operativos, aunque actualmente algunas distribuciones están mejorando su facilidad de uso, gracias al entorno de ventanas, sus escritorios y las aplicaciones diseñadas específicamente para él, cada día resulta más sencillo su integración y uso. Documentación y terminología muy técnica. Para usuarios corrientes, todavía no es un sistema de escritorio. Funciona únicamente con proveedores de hardware que accedieron a la licencia GPL y en algunas instancias no es compatible con variedad de modelos y marcas. Requiere consulta, lectura e investigación en lista, foros o en bibliografía dedicada al tema. La configuración de dispositivos de entrada y salida no es trivial. Muy sensible al hardware. Muchas distribuciones e idiomas. Hay que leer y entender código. Desventajas de Windows 31 MERCEDES TOZCANO Las limitaciones más importantes de esta versión en relación con XP Home son las siguientes: Limitaciones de actualización de Hardware. Resolución máxima de pantalla permitida: 1024 x 768 pixeles. No permite actualizar el sistema (no se puede hacer un upgrade a XP Home o Profesional) Sólo se pueden abrir 3 programas a la vez con 3 ventanas de cada programa. Por ejemplo, sólo se permiten 3 conversaciones simultáneas del Messenger. No se pueden compartir recursos (por ejemplo una impresora). No hay posibilidad de conectarse en red. No pueden crearse perfiles de distintos usuarios No permite crear una contraseña de protección del sistema. Principales ventajas El tour de inicio al Wndows XP Starter es más detallado. Cuenta con varios videos de introducción en castellano para el usuario principiante. Se puede aprender desde como usar el Mouse hasta saber lo que es un Firewall. Tiene una gran cantidad de tutoriales. Viene con 3 wallpapers del país de destino. El protector de pantalla es la bandera nacional. Opción de configuración automática para el PC No viene con CD de instalación o de recuperación. El Starter posee una imagen en el disco rígido de la nueva computadora. Incluye los programas clásicos y habituales de Windows en versiones integras pero limitadas de acuerdo a las prestaciones anteriormente reseñadas: Paint, 32 MERCEDES TOZCANO Wordpad, Internet Explorer, Outlook Express, Windows Media Player, Windows Messenger 4.7, Service Pack 2. Unix es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina. Además es un sistema multiusuario, en el que existe la portabilidad para la implementación de distintas computadoras. Características Es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina. Posee las siguientes características: - Es un sistema operativo multiusuario, con multiprocesamiento y procesamiento no interactivo. capacidad de simular - Está escrito en un lenguaje de alto nivel: C. - Dispone de un lenguaje de control programable llamado SHELL. - Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software. - Emplea manejo dinámico de memoria por intercambio o paginación. - Tiene capacidad de interconexión de procesos. - Permite comunicación entre procesos. - Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos. - Tiene facilidad para redireccionamiento de Entradas/Salidas. - Garantiza un alto grado de portabilidad. 33 MERCEDES TOZCANO El sistema se basa en un Núcleo llamado Kernel, que reside permanentemente en la memoria, y que atiende a todas las llamadas del sistema, administra el acceso a los archivos y el inicio o la suspensión de las tareas de los usuarios. LA IMPORTANCIA DEL ANTIVIRUS Son programas que se introducen en nuestros ordenadores de formas muy diversas. Este tipo de programas son especiales ya que pueden producir efectos no deseados y nocivos. Una vez el virus se haya introducido en el ordenador, se colocará en lugares donde el usuario pueda ejecutarlos de manera no intencionada. Hasta que no se ejecuta el programa infectado o se cumple una determinada condición, el virus no actúa. Incluso en algunas ocasiones, los efectos producidos por éste, se aprecian tiempo después de su ejecución (playload). Dos recomendaciones: 1) mantener siempre actualizado el antivirus y 2) si se prueba alguno de estos 10 programas, desactivar primero el otro antivirus -en caso de tener uno instalado en la PC-, ya que puede ocasionar problemas en el buen funcionamiento del sistema. 1.Norton Antivirus 2004 Norton AntiVirus es la última herramienta de Symantec para protegerse de todo tipo de virus, applets Java, controles ActiveX y códigos maliciosos. Como la mayoría de los antivirus, el programa de Symantec protege la computadora mientras navega por Internet, obtiene información de disquetes, CD`s o de una red y comprueba los archivos adjuntos que se reciben por email. 2.McAfee VirusScan 7 McAfee VirusScan es una de las herramientas de seguridad más conocida por los usuarios de todo el mundo. Esta nueva versión protege a la PC de posibles infecciones a través del correo electrónico, de archivos descargados desde Internet y de ataques a partir de applets de java y controles ActiveX. Trae una nuevo motor de búsqueda y un potente filtro para Internet que permite bloquear el acceso a sitios Web no deseados. Incluye una función llamada "Safe & 34 MERCEDES TOZCANO Sound" que automáticamente realiza copias de seguridad de los documentos mientras están abiertos. 3.F-Secure Antivirus 5.40 F-Secure contiene dos de los motores de búsquedas de virus más conocidos para Windows: F-PROT y AVP. Se actualiza todos los días e incluye todo lo necesario para proteger la PC contra los virus. Esta versión incluye un buscador que funciona en segundo plano, buscadores basados en reglas para detectar virus desconocidos y muchas opciones más para automatizar la detección de virus. 4.Trend PC-Cillin 2003 El PC-cillin es un potente y conocido antivirus que realiza automáticamente búsquedas de virus basado en sus acciones y no en el código con el que fueron creados. La versión de prueba caduca a los 30 días de uso. 5.Panda Antivirus Titanium 2.04.04 Titanium incorpora un nuevo motor hasta un 30 por ciento más rápido que sus antecesores, con un alto nivel de protección y un sistema heurístico avanzado para detectar posibles nuevos virus todavía desconocidos. Trae la tecnología SmartClean, que se encarga de reparar los daños que en el sistema provocan algunos virus. Se actualiza automáticamente. 6.Panda Antivirus Platinum Otra de las versiones del popular antivirus de la empresa española Panda. Detecta cualquier virus que se quiera entrometer en la computadora desde Internet y lo hace antes de que llegue a la PC. También impide que entren virus por archivos adjuntos o mensajería instantánea. Incluye un Firewall que detecta el movimiento de cualquier hacker que quiera ingresar. Se actualiza todos los días a través de 35 MERCEDES TOZCANO Internet. 7.Kaspersky Anti-virus Vigila todas las áreas del sistema, incluyendo a virus que puedan permanecer en la memoria, en los archivos comprimidos e incluso en los encriptados. También protege a la computadora de cualquier mail ¿peligroso¿ que propicie el ataque de troyanos y gusanos. Es compatible con los clientes de correo Outlook, Eudora y Pegasus, entre otros. Se actualiza automáticamente a través de Internet, en tanto y en cuanto el usuario lo configure para tal función. Sirve para analizar la PC en busca de algún virus pero también como escudo permanente para evitar el ingreso de cualquier virus. 8.ETrust EZ Antivirus Es una alternativa interesante frente a las populares herramientas antivirus. ETrust EZ detecta numerosos tipos de virus (incluyendo troyanos y gusanos) y una de sus principales ventajas es el poco tamaño que ocupa en la memoria del disco (menos de 4 MB). Puede ser configurado para que actualice periódicamente la lista de virus y para que revise la PC con la frecuencia que sea conveniente para el usuario. Una función interesante es el ¿Incremental Scaning¿, un mecanismo con el cual un archivo no se vuelve a escanear si no fue modificado desde la última vez que se revisó. Esto elimina la engorrosa tarea de analizar todos los archivos cada vez que se pasa el antivirus. 9.Avast! Home Edition La versión hogareña de Avast! Antivirus tiene todas sus características disponibles sin restricciones, entre ellas escaneos manuales (a pedido del usuario), por acceso (para proteger contra la ejecución de programas no deseados) y de emails entrantes y salientes. Los más precavidos también pueden dejarlo en forma residente. 36 MERCEDES TOZCANO Tras su instalación se integra al menú del botón derecho del Explorer. La actualización de este antivirus se realiza online en forma manual, automática o programada. Se puede utilizar sin cargo durante 90 días. Para continuar usándolo después de este período hay que registrarse como usuario, que no implica ningún costo. Viene en Español. 10.AVG Antivirus Es un antivirus que cuenta con las funciones comunes en este tipo de herramientas: protección de la PC contra virus, detección de archivos infectados y escaneo de mails. Permite realizar actualizaciones gratuitas y contiene una base de datos con los virus más importantes. QUÉ SON LAS TIC Son las tecnologías de la Información y Comunicación, es decir, son aquellas herramientas computacionales e informáticas que procesan, sintetizan, recuperan y presentan información representada de la más variada forma. Es un conjunto de herramienta, soportes y canales para el tratamiento y acceso a la información, para dar forma, registrar, almacenar y difundir contenidos digitalizados. Para todo tipo de aplicaciones educativas, las TIC’s son medios y no fines. Por lo tanto, son instrumentos y materiales de construcción que facilitan el aprendizaje, el desarrollo de habilidades y distintas formas de aprender, estilos y ritmos de los aprendices. VENTAJAS Y DESVENTAJAS DE LAS TIC´s EN EL AMBITO EDUCATIVO VENTAJAS DESVENTAJAS • Aprendizaje cooperativo. Los instrumentos que proporcionan las TICs facilitan el trabajo en grupo y el cultivo de actitudes sociales ya que propician el intercambio de ideas y la cooperación. 37 MERCEDES TOZCANO • Alto grado de interdisciplinariedad. Las tareas educativas realizadas con computadoras permiten obtener un alto grado de interdisciplinariedad ya que el computador debido a su versatilidad y gran capacidad de almacenamiento permite realizar diversos tipos de tratamiento de una información muy amplia y variada. • Alfabetización tecnológica (digital, audiovisual). Hoy día aún conseguimos en nuestras comunidades educativas algún grupo de estudiantes y profesores que se quedan rezagados ante el avance de las tecnologías, sobretodo la referente al uso del computador. Por suerte cada vez es menor ese grupo y tienden a desaparecer. Dada las necesidades de nuestro mundo moderno, hasta para pagar los servicios 38 MERCEDES TOZCANO