Download 1. Fundamentos de Sistemas Operativos Descripción general Las

Document related concepts

Shell de Unix wikipedia , lookup

Microsoft Windows wikipedia , lookup

Historia de los sistemas operativos wikipedia , lookup

Windows Fundamentals for Legacy PCs wikipedia , lookup

Linux Lite wikipedia , lookup

Transcript
1
1. Fundamentos de Sistemas Operativos
Descripción general
Las primeras computadoras personales (PCs) fueron diseñadas como sistemas de escritorio
autónomos. El software sistema operativo (OS) permitía a un usuario a la vez acceder a archivos de
acceso y recursos del sistema. El usuario tenía acceso físico a la PC.
A medida que las redes de computadoras basadas en PC ganaban popularidad en el lugar de trabajo,
las compañías de software desarrollaban sistemas operativos de red (NOSs) especializados. Los
desarrolladores diseñaron los NOSs para proporcionar seguridad a los archivos, privilegios del
usuario, y recursos compartidos entre múltiples usuarios. El crecimiento explosivo de Internet obligó a
los desarrolladores a construir los NOSs de hoy en día en torno a tecnologías y servicios relacionados
con Internet, como la World Wide Web (WWW).
Dentro de una década, el networking se ha convertido en algo de una importancia central para la
informática de escritorio. La distinción entre sistemas operativos de escritorio, ahora cargados con
funciones y servicios de networking, y sus contrapartes NOSs se ha ido borrando. Ahora, la mayoría
de los sistemas operativos populares como Microsoft Windows 2000 y Linux se encuentra en los
servidores de red de gran potencia y en los escritorios de los usuarios finales.
Este curso examina los componentes de los sistemas operativos de networking más populares en
operación hoy en día, incluyendo Windows 2000 y Linux. En este módulo, se repasarán los sistemas
operativos de escritorio, incluyendo sus componentes, limitaciones y su relación con los sistemas
operativos de red.
Este módulo proporciona una descripción general de las PCs incluyendo el OS y las redes de
computadoras. Microsoft Windows se detalla desde los inicios de MS-DOS hasta el último Windows
XP. También los sistemas operativos UNIX y Linux se detallan desde sus orígenes hasta las
configuraciones actuales. La mayoría de las aplicaciones de redes, incluyendo Internet, se construyen
alrededor de una relación cliente/servidor. El alumno comprenderá como funciona esta relación con
los componentes y configuraciones del NOS.
1.1
Conceptos Básicos sobre Sistemas Operativos
1.1.1
Descripción General de los Sistemas Operativos de PC
Las microcomputadoras de escritorio se popularizaron y extendieron a principios de los '80. Los
usuarios de estas primeras PCs de escritorio ponían a sus sistemas a trabajar en una variedad de
tareas. Estas tareas incluían el procesamiento de texto, la contabilidad casera y los juegos de
computadora.
Las PCs de escritorio también aparecieron en el lugar de trabajo, pero su productividad era limitada por
su incapacidad de compartir información fácilmente con otros sistemas. La Figura muestra cómo
estas primeras PCs de escritorio eran islas electrónicas, incapaces de comunicarse eficientemente con
otras PCs y los potentes mainframes y minicomputadoras que albergaban datos críticos.
En su mayor parte, los sistemas operativos de estas primeras PCs de escritorio estaban diseñados
para el sistema autónomo. Estos sistemas operativos suponían que sólo un usuario accedería a los
recursos del sistema en un momento determinado. Los conceptos de seguridad de archivos y
privilegios del usuario no estaban necesariamente incluidos en los sistemas operativos de escritorio, ya
que sólo un único usuario podía acceder al sistema por vez, y dicho usuario tenía que estar físicamente
presente en el teclado.
2
Figura 1
1.1
Conceptos Básicos sobre Sistemas Operativos
1.1.2
Las PCs y las redes informáticas
A medida que la informática de escritorio maduraba en el lugar de trabajo, las compañías instalaban
redes de área local (LANs) para conectar las PCs de escritorio de modo tal que las PCs pudieran
compartir datos y periféricos, como impresoras. Instalar placas adaptadoras de red en las PCs y luego
conectar los adaptadores utilizando alambre de cobre creó las LANs. Conectando las computadoras en
red, el problema de una comunicación eficiente quedó resuelto, pero aparecieron nuevos.
Las primeras LANs basadas en PC necesitaban una forma de proporcionar seguridad a los archivos,
acceso multiusuario a los recursos, y privilegios de usuarios. Las LANs basadas en PC también
necesitaban una forma de comunicarse con los mainframes que aún eran el punto focal de los entornos
informáticos corporativos.
Un enfoque para resolver estos problemas era desarrollar sistemas operativos especializados en
funcionar en un entorno en red. Estos mal llamados sistemas operativos de red (NOSs) requerían más
potencia informática que sus contrapartes de escritorio. Una nueva raza de PCs potentes se vio obligada
a entrar en servicio como servidores de red. Estas computadoras corrían NOSs y se convirtieron en el
punto focal de la LAN basada en PCs. En una red basada en el servidor, las máquinas clientes se
conectan a y acceden a recursos en el servidor. Estas máquinas cliente pueden ejecutar sistemas
operativos de escritorio, mientras que los servidores más potentes utilizan un sistema operativo de
redes. Compañías de software como Novell y Microsoft diseñaron sus sistemas operativos de red para
controlar entornos de red basados en PCs.
A medida que los servidores de red se hacían más poderosos, comenzaban a adoptar las funciones una
vez manejadas por los mainframes y minicomputadoras. Compañías tales como Sun Microsystems y
Hewlett Packard (HP) modificaron el sistema operativo UNIX para que corra en servidores
extremadamente potentes. En el pasado, sólo los caros mainframes y minicomputadoras eran
responsables de las aplicaciones y el almacenamiento de datos críticos. Pero al igual que los NOSs
Novell y Microsoft, UNIX podía correr en microcomputadoras. Hoy, virtualmente todas las
organizaciones se basan (al menos en parte) en microcomputadoras para almacenar datos críticos y
proporcionar aplicaciones y servicios clave.
El networking informático no se confina al lugar de trabajo. La mayoría de los usuarios hogareños
3
esperan conectarse a la red más grande del mundo, Internet. La navegación por la web, el correo
electrónico (e-mail), y otras aplicaciones relacionadas con Internet son ahora el centro de la informática
en el hogar. Para proporcionar estas tecnologías de Internet, compañías tales como Microsoft han
reconstruido sus sistemas operativos de escritorio. El OS de escritorio incluye ahora muchas de las
funcionalidades y servicios que antes se reservaban a los NOSs.
Las Figuras
y
muestran la evolución del networking.
1.1
Conceptos Básicos sobre Sistemas Operativos
1.1.3
El kernel
Ya sea que esté diseñado para una computadora autónoma de escritorio o un servidor de red
multiusuario, todo el software de los sistemas operativos incluye los siguientes componentes:
·
·
·
Kernel
Interfaz del Usuario
Sistema de Archivos
Kernel es el término más común para el núcleo del sistema operativo. El kernel es una porción
relativamente pequeña de código que se carga en la memoria cuando la computadora arranca. Este
código informático contiene instrucciones que permiten al kernel administrar dispositivos de hardware,
tales como unidades de disco. El kernel también administra y controla la adjudicación de la memoria,
los procesos del sistema, y otros programas. El software de aplicaciones y otras partes del sistema
operativo se basan en el kernel para proporcionar servicios básicos de cronogramas y acceso al
hardware y a los periféricos de la computadora.
Al utilizar un sistema UNIX o Linux, puede estar presente un archivo llamado "kernel". En algunos
casos, el código del kernel puede tener que ser personalizado y compilado. Si este archivo se volviera
corrupto, el sistema ya no funcionaría.
En un sistema Windows, pueden verse nombres de archivos que incluyen la palabra "kernel" o "kern",
por ejemplo "kernel32.dll". Estos son archivos críticos que son utilizados por el núcleo del sistema
operativo. La Figura muestra el archivo kernel32.dll y dónde está ubicado dentro de los archivos del
sistema central de Windows.
4
1.1
Conceptos Básicos sobre Sistemas Operativos
1.1.4
La interfaz del usuario
La interfaz del usuario (UI) es la parte más visible del sistema operativo de una computadora. La UI es
el componente del OS con el cual interactúa el usuario. Actúa como puente entre el usuario y el kernel.
La UI es como un intérprete, traduciendo las teclas que presiona el usuario, los clics del mouse, u otras
entradas para los programas apropiados. La salida del programa puede ser organizada y mostrada por
la UI. En un sistema UNIX o Linux, una UI se denomina por lo general shell.
Las interfaces del usuario recaen en dos categorías generales:
·
·
La Figura
La Figura
muestra un ejemplo de la interfaz de línea de comandos (CLI) de Windows
muestra un ejemplo de la interfaz gráfica del usuario (GUI) de Windows
Los primeros sistemas operativos de PC utilizaban exclusivamente CLIs. La CLI proporciona al usuario
un prompt visual, y el usuario introduce los comandos tipeándolos. La computadora da como resultado
5
la salida de los datos a la pantalla tipográficamente. En otras palabras, un entorno CLI se basa
completamente en texto y el usuario sólo puede hacer las cosas introduciendo comandos mediante el
teclado.
Los usuarios de UNIX y Linux pueden elegir a partir de una variedad de CLIs, o shells, como el shell
Bourne y el shell Korn. Los shells UNIX se tratan posteriormente en este módulo.
Hoy, todos los OSs de escritorio populares soportan GUIs. Una GUI permite al usuario manipular el
software utilizando objetos visuales tales como ventanas, menúes desplegables, punteros e íconos. La
GUI permite al usuario introducir comandos mediante un mouse u otro dispositivo de apuntar y hacer
clic. Los usuarios finales prefieren una interfaz gráfica porque hace que operar la computadora sea fácil
e intuitivo. Un usuario puede llevar a cabo operaciones simples utilizando una GUI sin siquiera saber
leer.
El inconveniente de simplificar la interfaz del usuario se da en el desempeño. Algunos software de GUI
pueden consumir más de cien veces el espacio de almacenamiento que consume el software CLI.
Puesto que las GUIs son más complicadas que las CLIs, el software GUI requiere significativamente
más memoria y tiempo de la CPU.
Puesto que el usuario final promedio prefiere y espera una interfaz gráfica cuando utiliza una
computadora, las GUIs se consideran ahora un requisito para los OSs de escritorio. No obstante, los
sistemas operativos de red no han, tradicionalmente, asistido las necesidades de los usuarios
inexpertos. Varios NOSs no soportan completamente GUIs. Hoy la mayoría de los NOSs soportan GUIs
como módulos separados, que pueden cargarse y usarse como cualquier otro programa que se ejecute
en el sistema. La mayoría no requiere que estos módulos GUI funcionen, no obstante resultan más
fáciles y atractivos al usuario inexperto y más disponibles al público.
Los administradores de sistemas por lo general están cómodos trabajando en entornos CLI, porque
pueden elegir preservar recursos del servidor no cargando el software GUI. Por ejemplo, tanto UNIX
como Linux soportan GUIs, pero cuando se los implementa como NOSs, UNIX y Linux a menudo se
configuran sin componentes GUI. En contraste, los servidores Windows siempre incluyen la GUI y por
lo tanto demandan más a los recursos del sistema.
1.1
Conceptos Básicos sobre Sistemas Operativos
1.1.5
El sistema de archivos
El sistema de archivos de un OS determina la forma en la cual los archivos se nombran y cómo y
dónde se colocan en los dispositivos de almacenamiento, como los discos rígidos. Los OSs Windows,
Macintosh, UNIX y Linux emplean todos ellos sistemas de archivos que utilizan una estructura
jerárquica.
En un sistema de archivos jerárquico, los archivos se colocan en contenedores lógicos que se disponen
en una estructura de árbol invertido, como lo muestra la Figura . El sistema de archivos comienza en
la raíz del árbol. UNIX y Linux llaman a un contenedor que reside en el nivel superior de un árbol,
"directorio". Los contenedores dentro de cada directorio se llaman "subdirectorios". Los OSs Windows y
Macintosh utilizan los términos "carpeta" y "subcarpeta" para describir a los directorios y subdirectorios.
6
El sistema de archivos de un OS determina más que tan sólo cómo se organizan lógicamente los
archivos y carpetas. El tipo de sistema de archivos utilizado por la computadora determina si los
archivos pueden o no asegurarse respecto a otros usuarios o programas. El sistema de archivos
también define cómo se disponen físicamente los datos en el medio de almacenamiento, tal como un
disco rígido. Algunos sistemas de archivos utilizan el espacio en disco más eficientemente que otros.
Un tipo común de sistema de archivos se denomina Tabla de Adjudicación de Archivos (FAT). Los
sistemas de archivos FAT son mantenidos en el disco por el sistema operativo. La tabla contiene un
mapa de archivos y dónde se almacenan en el disco. La FAT hace referencia a clusters de disco, que
son la unidad básica de almacenamiento lógico en el disco. Un archivo determinado puede
almacenarse en varios clusters, pero un cluster puede contener datos de sólo un archivo. Estos
clusters pueden, o no estar uno junto a otro. El OS utiliza la FAT para hallar todos los clusters de disco
donde un archivo está almacenado.
Existen tres tipos de sistemas de archivos FAT. Existe el sistema de archivos FAT original, al cual se
denomina "FAT" y los dos otros tipos son FAT16 y FAT32, que son versiones avanzadas y mejoradas
del sistema de archivos FAT original. Éste se utilizaba en las primeras versiones de DOS, no obstante,
no podía ser utilizado con los discos rígidos más grandes y con sistemas operativos más avanzados
como Windows 3.1, Windows 95 y Windows 98. El sistema FAT original estaba limitado en varios
sentidos, como por ejemplo siendo sólo capaz de reconocer nombres de archivos de hasta ocho
caracteres de largo. Otras limitaciones del FAT era que no podía ser una opción viable a utilizar en los
discos rígidos más grandes y en los más avanzados sistemas operativos que rápidamente se estaban
desarrollando. El sistema de archivos FAT original no podía apropiadamente hacer un uso eficiente del
espacio en estas unidades de disco rígido más grandes. Esto uso ineficiente del espacio era el mismo
problema que enfrentó FAT16, y un motivo principal para el desarrollo de FAT32. FAT16 fue creado
para su uso en particiones más grandes de hasta 4 gigabytes (GB). Aunque los discos más grandes
pueden formatearse en FAT16, hacerlo resulta en un uso ineficiente de espacio en disco porque en los
sistemas FAT, particiones más grandes resultan en tamaños de cluster más grandes. Por ejemplo, con
una partición de 512 megabytes (MB), el tamaño de los clusters, o unidades básicas de
almacenamiento, es de 8 KB. Esto significa que si un archivo tiene un tamaño de sólo 1 KB, utiliza 8
kilobytes (KB) de espacio a causa de que más de un archivo no puede almacenarse en un cluster, los 7
KB extra se desperdician. Para superar este problema, se desarrolló FAT32. Este sistema de archivos
de 32 bits utiliza tamaños de cluster más pequeños en los discos grandes. Soporta particiones de un
tamaño de hasta 2 terabytes (TB).
La Figura
muestra los sistemas de archivos de los sistemas operativos.
7
Sistemas operativos diferentes utilizan sistemas de archivos diferentes, y algunos sistemas operativos
pueden utilizar más de un sistema de archivos. Por ejemplo, aunque Windows 3.x puede utilizar sólo el
sistema de archivos FAT16, Windows 2000 puede usar FAT16, FAT32, o el New Technology File
System (NTFS).
El sistema de archivos determina las convenciones de nombrado de archivos y el formato para
especificar un camino, o ruta, hasta la ubicación del archivo. Estas reglas para nombrar archivos varían
dependiendo del sistema de archivos e incluyen varios temas:
·
·
·
·
·
·
Cantidad máxima de caracteres permitida en un nombre de archivo
Longitud máxima de las extensiones o sufijos de los archivos
Si se permiten espacios entre palabras en un nombre de archivo
Si los nombres de archivos son sensibles al uso de mayúsculas y minúsculas
Qué caracteres son legales para su uso en nombres de archivo
El formato para especificar la ruta
8
1.1
Conceptos Básicos sobre Sistemas Operativos
1.1.6
Sistemas operativos de escritorio comunes
Durante los últimos veinte años, los sistemas operativos de escritorio han evolucionado para incluir
GUIs sofisticadas y potentes componentes de networking como se muestra en la Figura .
·
·
·
·
·
Microsoft Disk Operating System (MS-DOS) es un OS obsoleto que todavía se utiliza para
soportar aplicaciones de negocios heredadas. Las versiones de Windows anteriores a
Windows 95 eran esencialmente interfaces del usuario para DOS.
Microsoft Windows incluye Windows 95, 98, ME, NT, 2000 y XP.
Apple Macintosh OS (Mac OS) incluye OS 8, OS 9 y OS X (OS 10).
Linux incluye distribuciones de varias compañías y grupos, como por ejemplo Red Hat,
Caldera, Santa Cruz Operation (SCO), SuSE, Slackware, Debian y otros.
UNIX incluye HP-UX, Sun Solaris, Berkeley System Distribution (BSD), y otros.
Hoy, los desarrolladores y usuarios de OS por igual reconocen a Internet como centro de la informática.
Puesto que el networking e Internet se han convertido en parte tan integral del uso de una
computadora, el sistema operativo de escritorio converge rápidamente con el sistema operativo de red.
Microsoft Windows y Mac OS pueden remontar sus raíces a las primeras PCs de escritorio. Las últimas
versiones de estos OSs tienen potentes componentes NOS en su núcleo. Windows XP está armado
sobre tecnología NOS de Microsoft (NT y 2000), mientras que Mac OS está armado en torno a UNIX.
UNIX es considerado el primer NOS. Y al igual que a UNIX, la industria de la Tecnología de la
Información (IT) siempre ha considerado a Linux antes como a un NOS, y en segundo lugar como a un
sistema operativo de escritorio.
¿Son Windows, Linux y UNIX software de escritorio o software de servidor de red? La respuesta a esa
pregunta depende de varios factores, incluyendo la versión específica del OS, los componentes
instalados, y la configuración del sistema. En las secciones que siguen, Microsoft Windows y Linux se
tratan como sistemas operativos de escritorio. Windows 2000 y Linux se tratan en términos de sistemas
operativos de red posteriormente en este curso.
1.2
Microsoft Windows
1.2.1
MS-DOS
Microsoft lanzó su primer producto Windows, Windows 1.0, en 1985. Un ejemplo de qué aspecto tenía
la interfaz del usuario en esta primera versión de Windows se muestra en la Figura . Windows 2.0 se
lanzó en 1987. Las primeras versiones de Windows funcionaban como interfaces gráficas del usuario
(GUIs) que se ejecutaban "encima" del OS nativo, que se denominaba Sistema Operativo de Disco
9
(DOS). Windows era un shell que permitía al usuario administrar el software DOS subyacente.
La versión de Microsoft del DOS (MS-DOS) se diseñó sobre un OS llamado 86-DOS o Quick and Dirty
Operating System (QDOS). Seattle Computer Products escribió QDOS para que se ejecute en el
procesador Intel 8086. IBM utilizaba el procesador 8088; una versión menos cara de su nueva línea de
PCs. Microsoft compró los derechos de QDOS y lanzó MS-DOS en 1981. La Figura muestra un
ejemplo de la interfaz del usuario de MS-DOS.
MS-DOS comenzó como un sistema operativo simple con una CLI basada en texto. Diseñado para
ejecutarse en el procesador Intel 8088 de 16 bits (8 bits de bus de datos), MS-DOS era un sistema
operativo de 16 bits, que podía manejar el procesamiento sólo de a 16 bits por vez.
MS-DOS y el procesamiento de 16 bits son obsoletos en los entornos de escritorio basados en Internet
y gráficamente orientados de hoy en día. Hoy, los sistemas operativos de 32 bits son estándar, y un
puñado de sistemas operativos de 64 bits están disponibles para los sistemas que tienen procesadores
de 64 bits. No obstante, muchas corporaciones y pequeños negocios continúan basándose en MSDOS para ejecutar aplicaciones de negocios heredadas en el lugar de trabajo. Una "aplicación
heredada" es software desactualizado que sigue utilizándose debido a una inversión previa. Algunas
compañías han efectuado una considerable inversión en hardware, software y capacitación informática,
y encuentran que MS-DOS y sus aplicaciones relacionadas todavía sirven para hacer el trabajo.
10
Existen varias razones para usar MS-DOS:
·
·
·
·
MS-DOS es un sistema operativo simple, de baja sobrecarga. Los requisitos de memoria y
procesador son muy bajos. DOS se ejecuta sin esfuerzo en hardware desactualizado.
MS-DOS no es caro. No sólo el sistema operativo en sí no es caro, el costo del hardware
compatible, como se mencionó anteriormente, también es bajo.
MS-DOS es estable y confiable. Puesto que no es un sistema operativo multitasking (es decir,
ejecuta un único programa a la vez), no es necesario preocuparse por los conflictos y cuelgues
ocasionados por direcciones de memoria compartidas.
MS-DOS es fácil de aprender y utilizar. Aunque no es tan intuitivo como un sistema operativo
basado en GUI, una vez que el usuario domina la sintaxis de comandos, DOS es relativamente
fácil de usar.
Se dispone de muchos programas para MS-DOS. Puesto que fue estándar durante muchos años, se
escribió una gran cantidad de programas para ejecutarse en DOS. Algunas compañías continúan
ejecutando el sistema operativo porque los programas propietarios, escritos personalizadamente para
su negocio para que se ejecuten en MS-DOS, no funcionan bien en los sistemas operativos más
nuevos.
No obstante, continuar utilizando este sistema operativo antiguo tiene muchas desventajas. MS-DOS
no puede ejecutar los sofisticados programas gráficos escritos para los modernos sistemas operativos
Windows de 32 bits. El sistema de archivos FAT de MS-DOS es inseguro y funciona mal para los
entornos conscientes de la seguridad y multiusuario de hoy.
El networking con clientes MS-DOS es problemático. En algunos casos, un usuario MS-DOS podría ser
incapaz de conectarse a recursos de red que utilizan nombres de archivo largos (más de ocho
caracteres).
Y finalmente, la más obvia desventaja del MS-DOS es su CLI intimidante. A medida que la PC de
escritorio evolucionaba, Microsoft se propuso tratar las limitaciones de MS-DOS, particularmente la
interfaz del usuario. Windows 1.0 y 2.0 fueron el primer paso hacia este objetivo.
1.2
Microsoft Windows
1.2.2
Microsoft Windows 3.1
No fue hasta que Windows 3.0 se lanzó en 1990 que Microsoft estableció su interfaz del usuario como
fuerza importante en la industria. En 1992, Microsoft lanzó una actualización a 3.0 denominada
Windows 3.1. Muy poco después, Microsoft puso en circulación una actualización gratuita a Windows
3.1, denominada Windows 3.11. Esta familia de productos se conoce colectivamente como Windows
3.x. La Figura muestra la pantalla inicial que se muestra cuando Windows 3.1 y Windows 3.11
bootean.
11
Ejecutar MS-DOS con Windows 3.x resolverá muchas de las desventajas de MS-DOS. El shell
Windows 3.x proporciona una GUI y soporta multitasking cooperativo, que permite a los usuario
ejecutar más de un programa simultáneamente.
No obstante, Windows 3.x aún tiene desventajas. Mientras que multitasking es algo bueno, el
multitasking cooperativo no es la mejor manera de implementarlo. Además, Windows 3.x es un sistema
operativo de 16 bits que no proporciona la seguridad de archivos y soporte de networking incorporado
que ahora demandan los usuarios.
Multitasking Cooperativo y Preferencial
El multitasking cooperativo es un entorno en el cual los programas comparten direcciones de memoria
e intercambian información. En un entorno multitasking, las aplicaciones comparten el uso del
procesador por medio de un método conocido como "time slicing". Los programas de aplicaciones se
escriben de modo tal que abandonen el procesador después de una cantidad estipulada de tiempo de
modo tal que otros programas que se están ejecutando simultáneamente puedan utilizarlo. Si el
programa está mal escrito, podría monopolizar el procesador. Si un programa se cuelga, podría hacer
que también lo hagan otros programas.
Una forma más eficiente de multitasking utilizada por primera vez en Windows 9x se denomina
multitasking preferencial, que ahora es utilizada también por versiones más nuevas de Windows. El
sistema operativo controla la adjudicación del tiempo del procesador, y los programas de 32 bits se
ejecutan en sus espacios de direcciones propios y separados. Con el multitasking preferencial, un
programa que funcione mal no puede hacer colgar todo el sistema, y si un programa se cuelga, no
afecta a los otros. Un ejemplo de multitasking Preferencial puede apreciarse en la Figura que
muestra el Administrador de Tareas de Windows 2000. Los usuarios pueden ver cómo todos los
procesos y programas que se ejecutan en el sistema tienen su propio número de ID de Proceso (PID),
que el sistema operativo utiliza para distinguir entre procesos en ejecución.
12
Networking con Windows 3.x
MS-DOS y Windows 3.1 requieren la instalación de software cliente adicional para conectarse a una
red. Windows para Grupos de Trabajo 3.1 (lanzado en 1992) fue el primer sistema operativo de
Microsoft con componentes de networking incorporados. Microsoft lanzó Windows para Grupos de
Trabajo 3.11 en 1993.
Windows para Grupos de Trabajo fue diseñado para permitir a los usuarios compartir archivos con
otras PCs de escritorio de su grupo de trabajo. La Figura muestra la pantalla de configuración de la
red, que se utiliza para configurar un sistema Windows 3.11 para acceso a la red. Este tipo de
networking, donde cada computadora juega un papel igual en la red, se denomina networking peer-topeer. El networking incorporado y las capacidades peer-to-peer fueron importantes adiciones a
Windows, pero otros sistemas operativos, como Apple Macintosh OS, proporcionaban networking peerto-peer mucho antes que Windows para Grupos de Trabajo.
Hoy, Windows 3.x se considera obsoleto. Versiones más recientes de Windows ofrecen ventajas
significativas, incluyendo un networking mejorado. Windows 3.x y MS-DOS puede utilizarse para
conectarse a una red Windows NT o Windows 2000 moderna, pero en tales casos, es probable que los
clientes Windows 3.x reciban servicios limitados.
13
1.2
Microsoft Windows
1.2.3
Windows 9x
Microsoft Windows 95 fue diseñado para un fácil manejo de la red, y la tradición se continuó y mejoró
en Windows 98. Estos sistemas operativos se denominan colectivamente Windows 9x. La Figura
muestra un ejemplo del escritorio de Windows 9x con la barra de tareas, que fue una nueva función que
se agregó a la familia de sistemas operativos Windows 9x. Algunas de las otras nuevas características
que se agregaron a los sistemas operativos Windows 9x incluyen los siguientes productos mostrados
en la Figura :
·
·
·
·
·
Windows 95a La versión original del primer sistema operativo de escritorio de 32 bits de
Microsoft.
Windows 95b También llamado OSR2. Incluía mejoras tales como soporte a FAT32 pero sólo
estuvo disponible para Fabricantes de Equipamiento Original (OEM) para la instalación en las
computadoras que vendían.
Windows 98 Una actualización de Windows 95 que agregaba la tecnología Active Desktop, la
Advanced Configuration and Power Interface (ACPI), soporte para el Bus Serie Universal (USB)
y placas sintonizadoras de televisión, y mejoras de configuración y mantenimiento.
Windows 98 Second Edition (SE) Proporcionaba el navegador web Internet Explorer 5.0,
cifrado más fuerte para el networking por conexión telefónica, y soporte extra para la Conexión
Compartida a Internet (ICS).
Windows Millennium Edition (Windows ME) OS dirigido específicamente a usuarios
hogareños. Puesto que está armado sobre el código Windows 9x, Windows ME se reconoce en
general como parte de la familia 9x. Windows ME incluye las siguientes características:
· Soporte multimedia mejorado, haciendo que sea fácil trabajar con películas y fotos
digitales.
· Funciones incorporadas de recuperación de desastres que permiten al usuario
restaurar el sistema a un estado predeterminado.
· Simplificación de la configuración requerida para redes peer-to-peer simples.
· Arranque y apagado más rápido (cuando se utiliza nuevo hardware que soporte la
tecnología FastBoot)
Networking con Windows 9x
Los sistemas operativos Windows 9x incluyen software cliente de networking especializado. El software
cliente permite al OS participar en redes basadas en servidores. Los clientes aprovechan servicios
ofrecidos por sistemas que ejecutan software NOS, como Windows NT o Novell NetWare. Estos
servicios incluyen la autenticación, archivos compartidos, impresoras compartidas, servicios de
directorio/nombrado, servicio de correo, y servicios de web.
14
Windows 9x incluye software cliente para una variedad de redes. A causa de sus funciones de
conectividad, Windows 9x es uno de los sistemas operativos cliente más populares del mundo de los
negocios. Durante varios años, ha sido el sistema operativo de escritorio elegido por compañías tanto
pequeñas como grandes, para redes peer-to-peer, y para uso como cliente para servidores Microsoft
NT, NetWare, y UNIX.
Procesamiento de 32 bits y Multitasking Preferencial
Windows 9x soporta aplicaciones de 32 bits, pero también incluye código de 16 bits para que resulte
compatible con programas DOS y Windows 3.x. Utiliza una Tabla de Adjudicación de Archivos Virtual
(VFAT) para soporte de nombres de archivos largos, y Windows 95b y 98 pueden utilizar FAT32 para
un uso más eficiente del disco. Algunas ventajas de Windows 9x como sistema operativo de escritorio y
cliente de red incluyen las siguientes:
·
·
·
·
Es menos caro que Windows NT y Windows 2000.
Ejecuta una amplia variedad de aplicaciones DOS y Windows de 16 bits y 32 bits.
Su interfaz es familiar para la mayoría de los usuarios de computadora.
Se dispone de software cliente para que Windows 9x se conecte a la mayor parte de tipos de
NOS, como Windows, NetWare, UNIX, y Linux.
1.2
Microsoft Windows
1.2.4
Windows NT y Windows 2000
Durante los '90, Microsoft comenzó a desarrollar un sistema operativo que cumpliera con las
necesidades de un entorno en red moderno. El resultado fue Windows NT. NT significaba Nueva
Tecnología. Microsoft lanzó NT como versión 3.0 en 1993. Windows NT 4.0 se lanzó en 1996.
Windows NT se ejecutaba sobre un kernel enteramente nuevo. No se basaba en el antiguo código
relacionado con el DOS sobre el cual se habían armado otras versiones de Windows. El software
Windows NT contaba con seguridad de archivos mejorada, estabilidad, networking y soporte a 32 bits.
Con ese propósito, Windows NT soportaba un nuevo sistema de archivos llamado NTFS.
Desde el principio, Microsoft posicionó a Windows NT como sistema operativo para servidores de alta
potencia y power-users. Windows NT fue el primer sistema operativo de redes de Microsoft.
A causa de las características superiores de NT, Microsoft planeó unir su OS de escritorio (Windows
9x) con su NOS (NT) como nueva familia de productos llamada Windows NT 5.0. El proyecto NT 5.0
fue eventualmente llamado Windows 2000 por el año en que fue lanzado finalmente. A pesar de la
intención original de Microsoft de lanzar una versión hogareña del software, Windows 2000 quedó
como OS para power users, escritorios corporativos, y servidores de alta potencia. La Figura
muestra una línea de tiempo de los sistemas operativos Windows desde NT 3.1 hasta el lanzamiento
de Windows 2000.
15
1.2
Microsoft Windows
1.2.5
Windows XP
Windows XP fue lanzado en 2001 y representa al primer OS armado sobre NT directamente dirigido a
escritorios tanto para el hogar como corporativos. La familia Windows XP está formada por:
·
·
·
Windows XP Home Edition Dirigido a usuarios hogareños
Windows XP Professional Dirigido a power users y el escritorio corporativo
Windows .NET server Dirigido a servidores como NOS
Aunque Windows XP y XP Professional comparten muchos componentes con sus ancestros NT/2000,
aún son considerados sistemas operativos de escritorio. A pesar de esta distinción semántica, Windows
XP y XP Professional ofrecen muchas de las funciones clave asociadas a un NOS, incluyendo una
sofisticada seguridad de archivos y recursos compartidos, soporte para múltiples cuentas de usuarios,
administración remota, y numerosos componentes y servicios de networking. Tanto Windows XP Home
Edition como XP Professional soportan múltiples cuentas de usuarios pero sólo Windows XP
Professional soporta acceso remoto.
Las Figuras
-
muestran cuán diferente es la GUI de Windows XP de la de Windows 2000.
16
1.2
Microsoft Windows
1.2.6
GUI de Windows
La GUI de Windows es tal vez la interfaz del usuario más reconocible del mundo. Los sistemas
operativos Windows 9x, NT, 2000, y XP comparten todos elementos comunes en sus GUIs. La Figura
señala muchas de estas características similares que todas estas versiones de Windows tienen en
común.
·
·
·
·
·
·
Escritorio
Barra de Tareas de Windows
Menú Inicio
Ícono Mi PC
Entorno de Red (también denominado Mis Lugares en la Red)
Papelera de Reciclaje
Al utilizar la GUI de Windows, hacer clic con el botón derecho sobre el ícono Mi PC, y seleccionando
Propiedades desde el menú desplegable verificará qué versión de Windows está actualmente
instalada en el sistema. La versión del software del OS se mostrará en la Solapa General de la ventana
Propiedades del Sistema. La Figura muestra un ejemplo de cómo verificar la versión de Windows.
17
1.2
Microsoft Windows
1.2.7
CLI de Windows
Todos los sistemas operativos Windows incluyen un entorno de línea de comandos que permite al
usuario introducir comandos MS-DOS comunes. La Figura muestra un ejemplo de la interfaz CLI
MS-DOS.
Para acceder a la línea de comandos en Windows 9x, seleccione Ejecutar desde el menú Inicio e
introduzca la palabra command en el recuadro de diálogo Ejecutar. Esto abrirá una ventana
comúnmente denominada "Prompt de Comandos". En el prompt, introduzca comandos basados en
texto y ejecute programas. La salida en el recuadro DOS también está basada en texto.
La Figura
enumera algunos comandos CLI de Windows comunes.
18
1.2
Microsoft Windows
1.2.8
Panel de Control de Windows
La GUI Windows incluye una importante herramienta de configuración denominada Panel de Control. El
Panel de Control de Windows es un punto central para efectuar cambios en la configuración del
sistema. La Figura muestra un ejemplo de las diversas herramientas de configuración disponibles en
el panel de control.
Desde el Panel de Control, un usuario puede llevar a cabo las siguientes tareas clave:
·
·
·
·
·
Instalar y quitar controladores de hardware
Instalar y quitar aplicaciones de software y otros componentes
Agregar, modificar y borrar cuentas del usuario
Configurar una conexión de Internet
Configurar configuraciones de dispositivos periféricos (módem, mouse, impresora, etc.)
19
1.3
Unix y Linux en el Escritorio
1.3.1
Orígenes de Unix
UNIX es el nombre de un grupo de sistemas operativos cuyo origen se remonta a 1969 en los
Laboratorios Bell. Desde su concepción, UNIX fue diseñado para soportar múltiples usuarios y
multitasking. UNIX también fue uno de los primeros sistemas operativos en incluir soporte para
protocolos de networking para Internet. La historia de UNIX, que ahora comprende más de 30 años, es
complicada puesto que muchas compañías y organizaciones han contribuido a su desarrollo.
Durante los 1970, UNIX evolucionó a través del trabajo de desarrollo de los programadores de los
Laboratorios Bell y de varias universidades, notablemente la Universidad de California, en Berkeley.
Cuando UNIX comenzó a comercializarse en los 1980, se lo utilizaba para correr poderosos servidores
en red, no computadoras de escritorio.
Hoy, existen docenas de versiones diferentes de UNIX, incluyendo las siguientes:
·
·
·
·
·
HP-UX (Hewlett Packard UNIX)
Berkeley Software Design, Inc, (BSD UNIX, que ha dado origen a derivados tales como
FreeBSD)
Santa Cruz Operation (SCO) UNIX
Sun Solaris
AIX (UNIX de IBM)
A pesar de la popularidad de Microsoft Windows en las LANs corporativas, gran parte de la Internet
corre en potentes sistemas UNIX. Aunque UNIX se asocia por lo general a hardware caro y se
considera poco amigable con el usuario, recientes desarrollos, incluyendo la creación de Linux (que se
describe en la siguiente sección), han cambiado esa imagen. La Figura muestra algunos de los
diversos tipos de servidores para los cuales se utilizan los sistemas UNIX y Linux.
20
1.3
Unix y Linux en el Escritorio
1.3.2
Orígenes de Linux
En 1991, un estudiante finlandés de nombre Linus Torvalds comenzó a trabajar en un sistema
operativo para una computadora basada en Intel 80386. Frustrado con el estado de los sistemas
operativos de escritorio como el DOS, y el gasto de los problemas de licencia asociados con el UNIX
comercial, Torvalds se propuso desarrollar un sistema operativo que fuera "UNIX" en su operación pero
que utilizara código de software abierto y completamente gratuito.
Aunque no era su intención original, el trabajo de Torvalds condujo a un esfuerzo de colaboración
mundial para desarrollar Linux, un sistema operativo de fuente abierta que tiene el aspecto de UNIX. A
fines de los '90, Linux se había convertido en una alternativa viable a UNIX en los servidores y a
Windows en el escritorio. La Figura muestra una línea de tiempo de los desarrollos más importantes
del sistema operativo Linux. La popularidad de Linux en las PCs de escritorio también contribuyó al
interés en el uso de las distribuciones de UNIX, tales como FreeBSD y Sun Solaris, en el escritorio. Las
versiones de Linux pueden ejecutarse ahora en casi cualquier procesador de 32 bits, incluyendo los
chips Intel 80386, Motorola 68000, Alpha, y PowerPC.
Al igual que en el caso de UNIX, existen numerosas versiones de Linux. Algunas son descargas
gratuitas de la WWW, y otras se distribuyen comercialmente. Las siguientes son algunas de las más
populares:
·
·
·
·
·
·
RedHat Linux, distribuida por RedHat Software
OpenLinux, distribuida por Caldera
Corel Linux
Slackware
Debian GNU/Linux
SuSE Linux
Linux es uno de los sistemas operativos más potentes y confiables del mundo hoy. A causa de esto,
Linux ya ha trazado entradas como plataforma para power users y en el campo de los servidores
empresariales. Es implementado menos a menudo como sistema operativo de escritorio corporativo.
Aunque se dispone de interfaces GUI para hacerlo amigable con el usuario, la mayoría de los usuarios
primerizos encuentran a Linux más difícil de utilizar que Mac OS o Windows. Actualmente, muchas
compañías (como RedHat, SuSE, Corel, y Caldera) están haciendo esfuerzos para que Linux sea un
sistema operativo viable para el escritorio.
El soporte a las aplicaciones debe considerarse cuando Linux se implementa en un sistema de
escritorio. La cantidad de aplicaciones de productividad para los negocios es limitada cuando se lo
compara con Windows. No obstante, algunos fabricantes proporcionan software de emulación de
Windows (como WABI y WINE) que permite que muchas aplicaciones Windows se ejecuten sobre
Linux. Además, compañías tales como Corel están creando versiones para Linux de sus suites de
oficina y otros paquetes de software populares.
Networking con Linux
Distribuciones recientes de Linux tienen componentes de networking incorporados para conectarse a
una LAN, establecer una conexión dialup a Internet, u otras redes remotas. De hecho, el Protocolo de
Control de Transmisión/Protocolo Internet (TCP/IP) está integrado al kernel de Linux en lugar de ser
implementado como subsistema separado.
Algunas ventajas de Linux como sistema operativo de escritorio y cliente de red incluyen las siguientes:
·
·
·
Es un auténtico sistema operativo de 32 bits.
Soporta multitasking preferencial y memoria virtual.
El código es de fuente abierta y por lo tanto disponible para que cualquiera pueda mejorarlo.
21
NOTA:
Aunque UNIX se implementa más a menudo como sistema operativo de servidores, las máquinas UNIX
pueden funcionar como clientes de red. En muchos casos, la configuración y los comandos para UNIX
son los mismos que en los sistemas Linux. No obstante, puesto que tanto UNIX como Linux vienen en
muchas versiones diferentes, las instrucciones de las siguientes secciones podrían no aplicarse a cada
distribución de UNIX o Linux. En general, utilice el comando man para acceder al manual para la
versión específica que se está utilizando.
En este módulo, UNIX y Linux se tratan juntos a causa de sus similitudes superficiales. En módulos
posteriores, se explicarán las diferencias entre estos dos sistemas operativos.
1.3
Unix y Linux en el Escritorio
1.3.3
GUI Linux/Unix
Tanto UNIX como Linux son capaces de ejecutar GUIs. Puesto que existen tantas versiones diferentes
tanto de UNIX como de Linux, existen literalmente docenas de interfaces gráficas populares de las
cuales elegir.
Por ejemplo, la instalación por defecto de Red Hat 7.x instala el Entorno de Escritorio GNOME y utiliza
GNOME como GUI por defecto para todos los usuarios (ver Figura ).
22
Aunque otros entornos de escritorio, como el Entorno de Escritorio K (KDE) pueden configurarse y
utilizarse con Linux (ver Figura ), GNOME está obteniendo rápidamente aceptación en la industria
como GUI UNIX y Linux "estándar".
Tanto UNIX como Linux se basan en el X-Windows System para mostrar la GUI. El X-Windows System
es software que funciona con el hardware del sistema y las aplicaciones gráficas incluyendo el "Window
Manager". El Window Manager es el software responsable de establecer el tamaño, la posición y de
crear las ventanas gráficas en las que se ejecutan los programas.
Las ventanas incluyen bordes que pueden arrastrarse para cambiar su tamaño, y botones gráficos
sobre los que puede hacerse clic para minimizar, maximizar, restaurar y cerrar la ventana. Puesto que
Linux soporta docenas de window managers, y cada window manager puede personalizarse, no hay
una forma única en que una ventana aparezca o actúe. La Figura muestra algunos botones de
ventana comunes y sus funciones.
23
NOTA:
GNOME significa "GNU Network Object Model Environment" [Entorno de Modelo de Objeto de Red
GNU] y se pronuncia "go-NOM". GNU significa "GNUs No UNIX". GNU es un proyecto de software
dedicado a producir software gratuito, de fuente abierta para Linux. GNU se pronuncia "go-NIU", por lo
cual GNOME se pronuncia con un sonido "g". A pesar de esto, es aceptable pronunciar GNOME como
"NOM".
GNOME no es un window manager. De hecho, GNOME puede funcionar con varios tipos diferentes de
window managers. GNOME es un entorno de escritorio. Un entorno de escritorio es una combinación
de programas, aplicaciones, y applets que componen parte de la GUI.
GNOME proporciona:
·
·
·
·
Paneles gráficos que pueden utilizarse para arrancar aplicaciones o mostrar estado
Un escritorio gráfico que puede utilizarse para colocar aplicaciones, archivos y menúes
Un conjunto estándar de herramientas y aplicaciones de escritorio
Un conjunto de convenciones que permite a las aplicaciones funcionar juntas
1.3
UNIX y Linux en el Escritorio
1.3.4
Orígenes de UNIX
UNIX y Linux fueron diseñados para ser extremadamente flexibles y adaptables. Como resultado de
esto, UNIX y Linux soportan docenas de interfaces de usuario. Las más comunes son las interfaces
basadas en texto llamadas shells.
Los usuarios tipean comandos que son interpretados por el shell, y este, a su vez, transmite las
instrucciones al sistema operativo y a otros programas. Los shells de UNIX ( y Linux) son difíciles de
aprender porque dependen de abreviaturas y una compleja sintaxis de comandos. Los shells más
frecuentemente utilizados incluyen los siguientes:
·
·
·
·
·
Bourne shell
Korn shell
Bash shell
C shell
TC shell
24
La distribución y configuración de una PC que corre bajo UNIX o Linux determinará los shells que
estarán disponibles para los usuarios. Aunque hay docenas de GUIs disponibles para UNIX y Linux, el
entorno CLI es la única interface de usuario disponible en varios sistemas. Si una GUI de UNIX o Linux
está siendo utilizada, puede haber diversas maneras de acceder al shell de CLI, tales como abrir una
ventana Terminal o "term".
Ingrese el comando UNIX, uname, en la mayoría de los sistemas para encontrar la versión UNIX o
Linux que la computadora está corriendo.
1.3
Unix y Linux en el Escritorio
1.3.5
Orígenes de UNIX
Las diversas versiones de UNIX y Linux ofrecen una variedad de herramientas de configuración
similares al Panel de Control de Windows. Algunas de estas herramientas se basan en texto, para
entornos CLI. Algunas otras, como linuxconf para Linux o admintool para Solaris, pueden usarse en la
GUI. Las Figuras – muestran ejemplos de dos herramientas de configuración principales de la GUI
que se utilizan con Linux y UNIX.
Utilizando estas utilidades de configuración, pueden llevarse a cabo las siguientes tareas principales:
·
·
·
Agregar, modificar y borrar cuentas de usuario
Configurar una conexión a Internet y servicios de red
Configurar dispositivos periféricos (módem, mouse, impresora, etcétera)
25
1.4
Descripción General de los Sistemas Operativos de Red
1.4.1
Sistemas operativos de red comunes
Las limitaciones de los primeros OSs de escritorio y la creciente demanda de PCs de escritorio condujo
al desarrollo de software NOS más potente. En contraste con el primer software de PC de escritorio, los
NOSs proporcionan componentes de networking incorporados y servicios de red, capacidad
multiusuario, y sofisticadas tecnologías de seguridad de archivos y de archivos compartidos.
Los NOSs deben tener un kernel robusto para evitar cuelgues y tiempo de inactividad. Es
especialmente importante que el kernel del NOS cronograme y administre múltiples procesos de modo
tal que se evite que cada programa entre en conflicto con otras partes del sistema.
Puesto que los NOSs son administrados por administradores especializados, no necesariamente
requieren interfaces gráficas, grandes consumidoras de recursos. Los NOSs han ofrecido
históricamente interfaces menos que amistosas, especialmente en comparación con sus contrapartes
de escritorio. No obstante, tanto Windows 2000 como Linux soportan GUIs completas e incluso
controles basados en la web.
Finalmente, un NOS requiere un sistema de archivos sofisticado que permita un almacenamiento
eficiente y máxima seguridad. En lugar de FAT, un NOS emplea por lo general NTFS, UFS (UNIX file
system, vale decir el sistema de archivos de UNIX), u otro sistema de archivos igualmente robusto.
Novell NetWare fue el primer NOS en cumplir con estos requisitos y contar con una amplia
implementación en las LANs basadas en PCs durante los años '80. Desde ese tiempo, el software
Novell ha perdido su posición como el principal NOS basado en PC.
Los NOSs comunes en uso hoy incluyen:
·
·
·
·
Microsoft Windows Los sistemas operativos de red ofrecidos por Windows son NT 3.51, NT
4.0, 2000, XP, y .NET. Tenga en cuenta que NT 3.51 y NT 4.0 están siendo desplazados como
resultado de los superiores Windows 2000, XP y .Net. La Figura y la Figura muestran los
sistemas operativos Windows XP y 2000.
Novell NetWare La línea de sistemas operativos de Novell, que incluían NetWare 3.12,
IntraNetWare 4.11, NetWare 5.0 and 5.1. La Figura y la Figura muestran ejemplos del
sistema operativo Novell.
Linux Los sistemas operativos Linux incluyendo Red Hat, Caldera, SuSE, Debian, and
Slackware. La Figura y la Figura muestran los sistemas operativos Linux de Red Hat y
Caldera.
UNIX Diversos sistemas operativos ofrecían UNIX, como HP-UX, Sun Solaris, BSD, SCO, y
AIX. La Figura muestra Sun Solaris.
Aunque el foco de este módulo está sobre Linux y Windows 2000, muchos de los mismos principios y
directrices de configuración pueden aplicarse también a otros sistemas operativos de red. La Figura
es una actividad de arrastrar y colocar en populares versiones de NOS.
26
27
1.4
Descripción General de Sistemas Operativos de Red
1.4.2
Comparación entre los NOS Windows y Linux
En el pasado, los sistemas operativos Windows y Linux ofrecían a los clientes y usuarios finales una
clara elección y comparación. Por ejemplo, desde el principio, Windows ha sido comercializado como
un sistema operativo de escritorio amigable con el usuario con interfaz gráfica (GUI). Desde ese punto,
Windows se ha desplazado al entorno de los servidores y también ofrece ahora una amplia variedad de
sistemas operativos estables para servidores a nivel empresarial. Linux, por otro lado, empezó del lado
opuesto a Microsoft Windows. Como usted ya debe saber, las raíces de Linux comenzaron con UNIX y
con ello el diseño modular hizo a Linux una opción muy popular entre los administradores de sistemas
para correr en sus servidores. El diseño modular significa que Linux soporta un enfoque de mezclar y
combinar que permite adaptar el sistema operativo para un servidor en particular simplemente
seleccionando y combinando los módulos que implementan la funcionalidad requerida. Este diseño por
módulos es lo que proporcionó a Linux y UNIX un factor de estabilidad y confiabilidad que cementó su
crecimiento en servidores, en oposición a los escritorios. Otros factores que separarían el entorno Linux
del entorno Windows es el hecho de que durante mucho tiempo, el Kernel Linux, el código fuente y el
sistema operativo ha sido gratuitamente distribuido en la comunidad de fuente abierta. Esto representa
un obvio contraste con Windows. El atractivo de la fuente abierta hizo popular a Linux entre los
programadores también, ya que ellos estaban en libertad de personalizar el Kernel Linux y el código
fuente. Éste sigue siendo el caso de la mayoría de las distribuciones de Linux hoy, siendo la excepción
Red Hat Linux. Hoy, Red Hat ya no ofrece su característica distribución "Red Hat" en el mercado de
fuente abierta. En cambio ofrece soluciones Red Hat de manera muy similar a como Microsoft Windows
ofrece su sistema operativo. Red Hat Linux ofrece una versión para escritorio, un servidor de rango
medio, y ediciones para servidores a nivel empresarial. Red Hat sí ofrece una opción de fuente abierta
llamada Fedora, que se distribuye gratuitamente en la comunidad de fuente abierta. Técnicamente,
Fedora no es oficialmente un producto soportado por Red Hat.
Recientemente, la comparación entre Windows y Linux ya no es tan distintiva. Linux ha ganado mucho
promoviendo su viabilidad en el mercado como competidor y alternativa a Windows. Con esto en
mente, aún hay diferencias notables que claramente separan a los dos. Estas diferencias incluyen,
primero, el aspecto modular, que todavía es un componente fundamental de Linux, la funcionalidad de
interfaz en modo texto, el costo, la obtención del OS, la capacidad de ejecutarse desde un CD,
software de aplicaciones disponibles y obtención de software de aplicaciones, vulnerabilidad a los virus,
funciones de seguridad y soporte de múltiples usuarios.
Interfaz en Modo Texto
Linux proporciona una ventana terminal en modo GUI así como la capacidad para ser ejecutado en
modo texto con una GUI también. Desde la interfaz en modo texto, también conocida como línea de
comandos Linux, el usuario tiene la capacidad de configurar Linux completamente de cualquier manera
que necesite. Esto es muy útil para los usuarios de Linux ya que la mayoría de las configuraciones se
hacen abriendo una ventana config en modo texto y editándola. Windows ofrece también una interfaz
de línea de comandos, no obstante, la línea de comandos Windows ya no proporciona una
funcionalidad DOS real. La GUI Linux es opcional, mientras que la GUI Windows es un componente
integral del OS. Ejecutar un OS GUI disminuye la eficiencia y confiabilidad de un servidor a causa del
incremento en la carga que coloca sobre los recursos del servidor. Al tratar servidores y computadoras
de escritorio, la eficiencia y confiabilidad son primera prioridad. La eficiencia y confiabilidad de un
servidor Linux se ven incrementadas ejecutando una instancia de servidor de Linux sin una GUI, algo
que las versiones de servidor de Windows no pueden hacer.
Costo
Para uso en el escritorio o el hogar, Linux es muy barato o incluso gratuito, Windows es caro. Para uso
en servidores, Linux es muy barato comparado con Windows. Microsoft permite el uso de una única
copia de Windows en una única computadora. A partir de Windows XP, utilizan software para obligar a
cumplir esta regla. Por el contrario, una vez que se ha adquirido Linux, se lo puede correr en cualquier
cantidad de computadoras sin cargo adicional.
Obtención del Sistema Operativo
28
Es difícil comprar una nueva computadora con Linux pre-instalado. Los fabricantes de PC más
importantes venden sólo computadoras basadas en Windows para uso en el hogar (las máquinas
basadas en Linux que venden son servidores). En agosto de 2004 HP afirmó que ofrecería una
computadora notebook para negocios, la Compaq nx5000, con SUSE Linux pre-instalado. Un modelo
de baja potencia, se espera que se venda por menos que un modelo comparable que corra Windows
XP. HP también tenía programado vender PCs Linux en Asia para junio del 2004.
Capacidad para Ejecutarse desde un CD
Linux puede ejecutarse desde un CD, Windows no. Para ejecutar Windows, primero debe instalarse en
su disco rígido. Normalmente esto ocurre también con Linux, pero existen unas pocas versiones de
Linux que se ejecutan completamente desde un CD sin tener que estar instalado en un disco rígido.
Ésta es una excelente forma para los usuarios de Windows de experimentar Linux por primera vez.
Entre las distribuciones de Linux que tienen una versión sólo CD están Knoppix, SuSE (llamada LiveEval), FreeBSD (llamada LiveCD), Lindows y Slackware.
Software de Aplicaciones Disponible y Obtención del Software de Aplicaciones
Existe más software de aplicaciones disponible para Windows, no obstante gran parte del software y
aplicaciones Linux que están disponible para Linux es gratuito. Si usted compra una copia de Windows,
no obtiene software de aplicaciones con ella. Si compra una copia de Linux, ésta viene con dos o tres
CDs de software de aplicaciones gratuito. Cada distribución de Linux viene en múltiples "sabores", las
versiones más caras vienen con más software de aplicaciones.
Vulnerabilidad a los Virus y Funciones de Seguridad
En comparación con Windows, Linux está libre de virus. Muchos más virus se ejecutan en Windows
que en Linux. Por defecto, los usuarios deben proporcionar un nombre de usuario y contraseña para
abrir sesión en un sistema Linux. Con Windows, éste no es el caso. Requerir a los usuarios que utilicen
un nombre de usuario y contraseña es una función que debe configurarse durante la instalación de
Windows o después de ella. Generalizando, los usuarios no experimentados de Windows no sabrán
que esta función existe o no sabrán cómo configurarla. Esto presenta una importante vulnerabilidad a la
seguridad en Windows. Linux también proporciona una cantidad de funciones de seguridad con todas
las aplicaciones del servidor principal que permiten al administrador controlar completamente casi cada
aspecto de vulnerabilidad y seguridad. La seguridad de Windows es generalmente unidimensional, en
la cual se proporcionan simples funciones de seguridad "activada/desactivada" que no ofrecen el nivel
de seguridad que se pretende para material sensible. La mayoría de las funciones de seguridad para
Windows deben adquirirse a través de fabricantes de software de terceros, lo cual es muy costoso.
Soporte a Múltiples Usuarios
Linux es un sistema multiusuario, Windows no. Windows está diseñado para ser utilizado por una
persona a la vez. Las bases de datos que se ejecutan bajo Windows permiten un acceso concurrente
de parte de múltiples usuarios, pero el Sistema Operativo en sí está diseñado para tratar con un único
ser humano a la vez. Linux está diseñado para manejar a múltiples usuarios concurrentes. Windows
puede ejecutar muchos programas concurrentemente, al igual que Linux. Existe una versión
multiusuario de Windows llamada Terminal Server pero no es la versión de Windows pre-instalada
disponible en las computadoras personales
29
1.4
Descripción General de los Sistemas Operativos de Red
1.4.3
El modelo cliente-servidor
La mayoría de las aplicaciones de red, incluyendo las aplicaciones relacionadas con Internet como la
World Wide Web (WWW) y el e-mail, están armados en base a una relación cliente/servidor.
Un programa especializado llamado servidor ofrece servicios de red, como e-mail, a otros programas
llamados clientes. (Los programas servidores se denominan comúnmente "daemons" en la comunidad
UNIX). Una vez habilitado, un programa servidor espera a recibir solicitudes de los programas clientes.
Si se recibe una solicitud legítima, el servidor responde enviando la información apropiada nuevamente
al cliente. La Figura demuestra cómo funciona esta interacción.
Por ejemplo, una vez que un programa servidor de la web se está ejecutando, espera solicitudes de
clientes. Un navegador de la web es un ejemplo de programa cliente. Los navegadores de la web
envían solicitudes a los servidores web. Cuando el navegador solicita datos al servidor, el servidor
responde, y el programa navegador recibe una respuesta del servidor web. El navegador muestra
entonces en su ventana los datos del Protocolo de Transferencia de Hipertexto (HTTP) que recibió.
30
En teoría, cualquier computadora puede actuar como servidor mientras esté conectada a la red y esté
configurada con el software apropiado. En la práctica, la mayoría de las organizaciones colocan todos
sus servicios de red clave en computadoras de elevado desempeño llamadas servidores que ejecutan
NOSs optimizados para servir a clientes remotos. La Figura muestra una disposición lógica típica de
cómo los servidores serían colocados en una red.
Un servidor típico que ejecute un NOS puede configurarse para ofrecer literalmente cientos de servicios
a clientes. Más aún, la mayoría de los NOSs pueden comunicarse con diversos tipos de plataformas
cliente siguiendo un conjunto universalmente comprendido de reglas, o protocolos.
Internet se construye en torno a un conjunto de reglas denominadas colectivamente Protocolo de
Control de Transmisión/Protocolo Internet (TCP/IP). A causa de la importancia de Internet, la mayoría
de servicios de red y programas cliente utilizan TCP/IP para intercambiar datos.
No obstante, otros protocolos, como el Novell Internet Packet Exchange (IPX), Apple AppleTalk, y la
Arquitectura de Red de Sistemas (SNA) de IBM, aún se usan hoy en día. La mayoría de los NOSs
pueden configurarse para que se comuniquen usando uno o más de estos protocolos así como TCP/IP.
Un único servidor ejecutando un NOS puede funcionar bien sirviendo sólo a un puñado de clientes.
Pero la mayoría de las organizaciones descubren que deben implementar varios servidores para lograr
un desempeño aceptable. Un diseño típico separa servicios de modo tal que uno o dos servidores sean
responsables del e-mail, otro servidor sea responsable de compartir archivos, etcétera.
Los servidores de elevada potencia que ejecutan un NOS son comúnmente configurados para que
utilicen la familia de protocolos de Internet, TCP/IP, y ofrecen uno o más servicios TCP/IP. Los
servidores que ejecutan un NOS también se utilizan para autenticar usuarios y proporcionar acceso a
recursos compartidos.
1.4
Descripción General de Sistemas Operativos de Red
1.4.4
Evaluación de los recursos y requisitos de los clientes
Una de las primeras cosas que deben tenerse en cuenta al comprar o armar una nueva computadora son los
requisitos necesarios para permitir al sistema proporcionar eficientemente el servicio. Determinar los
recursos del cliente ayudará también a decidir qué tipo de sistema armar o comprar para el cliente.
La mayoría de las computadoras que se venden no están diseñadas para que Linux corra sobre ellas. Por lo
31
tanto, evaluar determinados requisitos tales como el hardware y el software ayudará en cada paso al
configurar Linux para el sistema. Otros requisitos, como determinar si el sistema va a ser una estación de
trabajo, servidor o aparato dedicado también ayudará en pasos subsecuentes de configuración de Linux en
el sistema. Una planificación cuidadosa de este paso ayudará a decidir otros temas tales como la instalación,
configuración y administración, que se tratarán posteriormente en este curso.
Estaciones de Trabajo
Una estación de trabajo Linux, también conocida como computadora de escritorio, es un sistema que
comúnmente es una computadora autónoma que consiste en un monitor, teclado y mouse. Más a menudo
una estación de trabajo se configurará con una conexión de red también, pero éste no es un requisito para
una estación de trabajo o computadora de escritorio. La Figura muestra un ejemplo de una estación de
trabajo típica sobre la que puede correr Linux.
Al evaluar los requisitos apropiados para una estación de trabajo Linux, es importante tener en cuenta que el
usuario requrirá hardware y software específico instalados en el sistema. Por ejemplo, los requisitos para un
sistema de baja potencia, que una persona podría necesitar para tareas simples como procesamiento de
texto, no será un sistema con una unidad central de procesamiento (CPU) muy rápida o grandes cantidades
de memoria y espacio en el disco duro. No obstante, estos requisitos para un sistema de alto desempeño
para una persona que necesita hacer tareas más complejas, como edición de video o simulaciones
científicas de alto consumo de recursos, serán mayores. Este sistema de alto desempeño tendrá de hecho
un procesador muy rápido así como grandes cantidades de memoria rápida y espacio en el disco rígido.
Otros requisitos de hardware que se hallarán comúnmente en las estaciones de trabajo son hardware de
audio, como una placa de sonido, parlantes y en algunos casos un micrófono podría también ser necesario.
En una estación de trabajo un usuario también podría necesitar tener algunas unidades de medios
removibles de alta capacidad. Estas unidades pueden ser unidades Zip, grabadoras CD-R o CD-RW, y en
algunos casos también una unidad de DVD-ROM.
Servidores
Los requisitos para un servidor van a ser muy diferentes que los de una estación de trabajo. La Figura
muestra un ejemplo de qué aspecto puede tener un típico servidor Linux. Como se muestra en la Figura ,
los servidores generalmente tienen un aspecto muy diferente que los sistemas de estaciones de trabajo. Los
servidores no tienen realmente necesidad de las características orientadas al usuario, como grandes
monitores, parlantes o placas de sonido. Por otro lado, los servidores necesitarán consistir en cosas como
discos rígidos muy confiables y tolerantes a fallos. Por esta razón, los servidores tendrán discos rígidos
grandes, de elevado desempeño, como discos Small Computer System Interface (SCSI) en oposición a los
discos IDE Extendido (EIDE) que se instalarían en una estación de trabajo. Esto se debe a que la mayoría de
los servidores hacen un gran uso de su disco rígido y por lo tanto requieren discos que se desempeñen
mejor. Los discos SCSI proporcionarán estas funciones y son de especial utilidad cuando el usuario tiene
múltiples discos instalados en un único servidor.
32
El tamaño de la red a la que estará soportando el servidor ayudará a determinar los requisitos de CPU y
memoria para un servidor. Por ejemplo, si un usuario de un entorno de red grande que estará manipulando
muchas solicitudes y servicios, que tenga un sistema con una CPU rápida y una gran cantidad de memoria
de acceso aleatorio (RAM) será una necesidad. Éste no será el caso de un servidor que se encuentre en una
pequeña oficina y sólo maneje solicitudes de unos pocos usuarios. En un servidor Linux, tener grandes
cantidades de RAM puede ser más importante porque tiene una funcionalidad que automáticamente
almacena recientes accesos al disco rígido en la memoria. Linux puede leer entonces directamente de la
memoria en lugar de volver al disco rígido cuando entra una solicitud subsecuente. Esto se denomina
accesos al disco de buffering. Por lo tanto, un servidor Linux con mucha RAM puede desempeñarse mejor
que un servidor con la misma configuración y menos RAM.
Otro aspecto a considerar al determinar requisitos es qué tipo de servidor va a ser este sistema. ¿Se tratará
de un servidor web o del Protocolo de Transferencia de Archivos (FTP), un servidor de noticias Usenet, un
servidor de base de datos, o un servidor de tiempo? Todas estas preguntas necesitarán indagarse. Por
ejemplo, si el servidor va a manejar un sitio web al que se va a acceder numerosas veces y proporcionar
muchos servicios, entonces el usuario necesitaría diseñar un servidor muy potente. En algunos casos, el
usuario podría necesitar tener más de un servidor proporcionando los Servicios Web.
Aparatos Dedicados
Puede resultar difícil hacer cualquier requisito sugerido para que un sistema Linux se ejecute como aparato
dedicado. Un aparato dedicado puede ser un sistema Linux ejecutándose como router, servidor de impresión
o firewall, por ejemplo. Las Figuras y muestran ejemplos de cómo un servidor Linux podría ser usado
como firewall o servidor de impresión. Al armar un sistema que se utilizará como aparato dedicado, el
usuario a menudo puede utilizar hardware reciclado que de otro modo sería inutilizable. En algunos casos,
estos aparatos dedicados pueden requerir hardware muy especializado, como motherboards personalizados
o dispositivos de entrada de pantalla de contacto.
33
Recursos del Cliente
Determinar los recursos del cliente es un paso muy importante para evaluar los requisitos necesarios, así
como identificar cualquier recurso existente. Éstos pueden incluir cualquier hardware existente que pueda
utilizarse, límites en el presupuesto, y tener disponible la pericia apropiada.
Linux proporciona un medio excelente para reutilizar hardware existente y extender la vida de sistemas
antiguos y de otro modo inutilizables. Una razón para esto es el hecho de que Linux tiene la capacidad de
ejecutarse sin una GUI que pueda consumir todos los recursos del sistema. Esto es de especial ayuda si un
usuario deseara que un sistema actuara como firewall para una red de tamaño pequeño o mediano. Para
este firewall, el usuario podría instalar Linux en uno de los primeros Pentium o un sistema 486. Un sistema
Linux que se ejecute como firewall no requeriría mucha potencia en la CPU ni memoria, así como una
mínima cantidad de espacio de disco. Este tipo de sistema también podría utilizarse como servidor de
impresión o servidor de archivos si una pequeña cantidad de RAM se agregara. Otra instancia donde un
sistema como éste podría utilizarse es como terminal e incluso una terminal gráfica X para otras
computadoras Linux o UNIX.
Las restricciones de presupuesto son cosas que siempre se cuestionan al adquirir nuevas computadoras o
hardware. Una manera de tratar con estas restricciones es decidir apropiadamente el hardware apropiado
que se necesita y qué necesitará el usuario para lograr el trabajo. Por ejemplo, el espacio en el disco rígido
siempre puede agregarse después. Podría ser una buena idea comenzar con un disco rígido de tamaño
adecuado, que sea eficaz en materia de costos. Más discos rígidos pueden siempre agregarse después
según sea necesario. Otra área donde una cuidadosa evaluación y planificación puede ayudar a cumplir con
un presupuesto es en velocidades de la CPU. Hoy, las CPUs más sofisticadas son muy agradables pero eso
no significa que sean necesarias para las necesidades de un usuario. Por ejemplo, sería una pérdida de
dinero instalar un procesador Pentium 4 de 2,4 gigahertz (GHz) en un sistema que se utilizará principalmente
para procesamiento de texto.
Otro factor que debe considerarse al manejar restricciones de presupuesto es que una vez que el usuario ha
instalado las computadoras o el nuevo hardware, será necesario que una persona con la pericia apropiada
proporcione soporte y capacitación para las personas que usen el nuevo hardware y software. Por ejemplo,
si un sistema está integrado a una red existente, los usuarios podrían necesitar una capacitación especial
para acceder a los recursos a través de la red. Otros temas incluyen el acceso a medios de almacenamiento.
En Linux, acceder a la disquetera o a la unidad de CD-ROM es diferente que como se hace utilizando
Windows.
Resumen
Este módulo trató los conceptos fundamentales acerca de la PC. Algunos de los conceptos
importantes a retener de este módulo incluyen los siguientes:
34
·
·
·
·
·
El NOS proporciona componentes de networking incorporados y servicios de red,
capacidad multiusuario y sofisticada seguridad de archivos y tecnologías de archivos
compartidos.
Kernel es el término más común para el núcleo del sistema operativo. Este código
informático contiene instrucciones que administran dispositivos de hardware, como
unidades de disco. El kernel también administra y controla la adjudicación de la memoria,
procesos del sistema, y otros programas.
La UI actúa como puente entre el usuario y el kernel. Es el intérprete. Traduce el
presionar de teclas, el hacer clic en el mouse u otras entradas para los programas
apropiados. La salida de los programas puede ser organizada y mostrada por la UI. En
un sistema UNIX o Linux, una UI se denomina comúnmente shell. Las interfaces del
usuario recaen en dos categorías generales. Éstas son CLI y GUI.
El sistema de archivos de un OS determina si los archivos pueden o no asegurarse de
otros usuarios o programas. El sistema de archivos también define cómo se disponen
físicamente los datos en el medio de almacenamiento (como una unidad de disco rígido).
Un sistema de archivos común se denomina FAT.
Internet se construye en torno a un conjunto de reglas o protocolos colectivamente
denominados TCP/IP. La mayoría de servicios de red y programas cliente utilizan TCP/IP
para intercambiar datos.
El siguiente módulo es una introducción al networking. El alumno aprenderá los tipos de redes, la
importancia del modelo OSI, y los protocolos de red.
2. Introducción al Networking
Descripción general
Este capítulo comienza con una descripción general del networking. El alumno aprenderá acerca
de los tipos de redes en uso hoy, incluyendo LAN, WAN, peer-to-peer y cliente/servidor. Se tratan
los beneficios de un sistema abierto en oposición a un sistema propietario. El modelo OSI
representa un sistema abierto. Como se trata en este capítulo, el modelo de referencia OSI divide
las funciones de la red en siete capas que permiten la comunicación. El alumno obtendrá una
comprensión de las suites de protocolos incluyendo protocolos específicos usados en TCP/IP,
IPX/SPX, y AppleTalk. Este capítulo también explicará la arquitectura LAN, Ethernet, Token Ring
y FDDI.
2.1
Beneficios del Networking
2.1.1
Servicios de archivos, impresión y aplicación
Las computadoras pueden almacenar, procesar, manipular y mostrar grandes cantidades de
información más rápida y eficientemente que cualquier tecnología anterior. Porque son programables,
las computadoras pueden asumir muchas tareas diferentes. Son máquinas multipropósito. El trabajo
logrado con las computadoras es de alto valor para usuarios y organizaciones. El deseo de compartir la
valiosa información fue una de las fuerzas impulsoras detrás del desarrollo de las redes de
computadoras. La Figura muestra cómo el desarrollo de las redes permitió que varias computadoras
se conectaran juntas para compartir archivos y comunicarse mediante el correo electrónico (e-mail). La
Figura también muestra cómo los dispositivos de red como impresoras pudieron conectarse a la red
de modo tal que varios usuarios pudieran compartir todos una única impresora.
35
Aunque las tecnologías informáticas continúan volviéndose más eficientes y menos caras, todavía hay
una inversión sustancial de parte de usuarios y organizaciones. Junto con el hecho de compartir
información importante, las redes permiten compartir dispositivos de alto costo. En lugar de conectar
una impresora a cada computadora, una red puede permitir el acceso compartido de parte de muchos
sistemas concurrentemente.
2.1
Beneficios del Networking
2.1.2
Servicios de correo
Desde los primeros días, las redes informáticas han permitido a los usuarios comunicarse por correo
electrónico. Los servicios de e-mail funcionan como el sistema postal, con algunas computadoras
asumiendo la función de la oficina de correos. La cuenta de e-mail de un usuario opera como una
casilla de correo donde se guarda el correo para el usuario hasta que es recogido por la red por medio
de un programa cliente de e-mail que se ejecuta en el sistema del usuario. El e-mail continúa siendo el
beneficio más ampliamente usado de las redes de computadoras.
El e-mail funciona como una aplicación de "almacenamiento y recuperación". Los mensajes de correo
(y la información identificatoria como el emisor, el receptor y la marca temporal) se almacenan en un
servidor de e-mail hasta que el destinatario recupera el e-mail. Cuando se crea una cuenta de e-mail
para un usuario en el servidor de e-mail también habrá una casilla de correo creada para el usuario.
Cuando se reciben mensajes de e-mail, el servidor de e-mail redireccionará los mensajes a la casilla de
correo donde el mensaje de e-mail permanecerá hasta que el usuario lo recupere. Por lo común, los
mensajes de e-mail son comunicaciones breves. Los sistemas de e-mail actuales también permiten a
los usuarios adjuntar archivos más largos de muchos tipos diferentes (documentos, imágenes,
películas) a sus mensajes. Estos adjuntos pueden recuperarse o descargarse junto con el mensaje de
e-mail. De esta manera, los servicios de e-mail se funden con los servicios de transferencia de archivos
en la red.
Aunque los sistemas de e-mail han evolucionado junto con la tecnología de networking, el rápido
crecimiento de Internet ha permitido que más y más gente se conecte online. Esto permite la
comunicación inmediata entre usuarios de la red. La naturaleza de almacenamiento y recuperación de
los sistemas de e-mail no requiere que el destinatario esté conectado cuando se envía el e-mail. Puede
recogerse o recuperarse en un momento posterior. Además del e-mail, Internet ha dado origen a una
variedad de sistemas de mensajería instantánea que permiten a los usuarios de la red "chatear" con
casi ninguna demora en mal llamado "tiempo real", mientras se esté conectado a la red al mismo
tiempo. La Figura muestra un ejemplo del proceso de almacenamiento y recuperación cuando se
envía un e-mail. La Figura es un ejemplo del cliente de e-mail de Microsoft que viene con su software
de suite de oficina. Este cliente de e-mail puede usarse para recuperar e-mail desde la casilla de correo
36
en el servidor de e-mail.
La Figura
muestra un cliente de e-mail para Linux.
2.1
Beneficios del Networking
2.1.3
Directorios y servicios de nombre
Otro importante beneficio de las redes tiene que ver con la capacidad de encontrar recursos y
dispositivos donde quiera que estén ubicados. Para permitir a los usuarios y sistemas de la red
encontrar los servicios que requieren, las redes de computadoras hacen uso de directorios y servicios
de nombre (ver Figura ). Funcionando como la guía telefónica, la red asigna un nombre a usuarios,
servicios y dispositivos para que puedan identificarse y accederse a ellos. Conocer el nombre de un
servicio en la red permite a los usuarios contactarse con ese servicio sin tener que conocer su
ubicación física. De hecho, su ubicación física puede cambiar y los usuarios aún pueden encontrar el
servicio o dispositivo si conocen su nombre.
37
Los directorios y servicios de nombre hacen que la red sea más fácil de usar para la gente. La gente
trabaja más fácilmente con nombres para servicios y otras entidades. Pueden confiar en un directorio
de red y servicios de nombre para traducir esos nombres en direcciones usadas para comunicarse con
el servicio deseado. Después de la configuración inicial del directorio o servicio de nombre, esta
traducción tiene lugar detrás de escena, o transparentemente (ver Figura ). Además de la facilidad de
uso, esto hace a la red más flexible. Diseñadores de red y administradores pueden localizar o mover
servicios de archivos, impresión y otros con la seguridad de que los usuarios aún puedan localizarlos
por su nombre. Las ventajas de los directorios y servicios de nombre son las siguientes:
·
·
·
Un medio normalizado de nombrar y ubicar recursos en una red
Los nombres de texto son más fáciles de recordar que las direcciones numéricas
Los recursos de red no están atados a una ubicación física
2.1
Beneficios del Networking
2.1.4
La Internet
La Internet es una red pública de alcance mundial, que interconecta a miles de otras redes para formar
una gran "red" de comunicaciones. Muchas redes privadas, algunas con miles de usuarios en ellas, se
conectan a la Internet utilizando los servicios de Proveedores de Servicio de Internet [Internet Service
Providers (ISPs)]. Estos enlaces permiten el acceso por larga distancia a servicios de red para
compartir información y dispositivos.
La Internet funciona como una "cañería" de larga distancia para facilitar el intercambio entre usuarios,
organizaciones y ramas de compañías geográficamente separados. El término "supercarretera de
información" ha sido acuñado para describir el beneficio de Internet para la comunicación de negocios y
38
privada. La Internet rompe barreras de tiempo y espacio, permitiendo compartir información alrededor
del planeta en forma casi instantánea. La Figura muestra un gráfico que representa el crecimiento
extremadamente rápido de la Internet en los años pasados.
2.1
Beneficios del Networking
2.1.5
Administración de red
Los beneficios de las nuevas tecnologías traen consigo ciertos problemas, cuestionamientos, y costos.
A menudo, los diseñadores de una nueva tecnología no pueden predecir todos los usos e implicaciones
de la nueva tecnología. Otras invenciones importantes como el motor de combustión interna o la
televisión han traído costos sociales y económicos junto con sus beneficios. De igual forma, las redes
de computadoras generan nuevas cuestiones incluso al abrir nuevas posibilidades para los negocios y
el entretenimiento.
A medida que los negocios e individuos se hacen más dependientes del uso de las redes informáticas
para sus actividades diarias, se hace vitalmente importante que estas redes entreguen los servicios
que los usuarios esperan. Incluso una vez que los ingenieros han completado el diseño e instalación de
una nueva red, la red requiere atención y administración para asegurarse de que continúe entregando
un nivel de servicio consistente a sus usuarios. Las redes de informática necesitan monitorearse y
mantenerse para permanecer dinámicas. También deben cambiar y crecer en respuesta a las nuevas
tecnologías y requisitos de los usuarios.
La continua tarea de mantener y adaptar la red a las condiciones cambiantes recae en los
administradores de red y personal de soporte. Las responsabilidades de los administradores de red van
desde establecer nuevas cuentas y servicios de usuarios a monitorear el desempeño de la red y
reparar fallos en la misma. Muy a menudo, los administradores confían en las habilidades de personal
de soporte especializado para ubicar las fuentes de los problemas de la red y repararlos
eficientemente. A medida que las redes crecen, los administradores deben asegurar que la
disponibilidad de la red se mantenga mientras la red migra para incluir nuevo equipamiento y funciones
que sirvan a sus usuarios. Los administradores de redes deben tener habilidades en el uso de una
amplia variedad de herramientas para una variedad de tipos diferentes de dispositivos y sistemas.
Los administradores de redes enfrentan muchas decisiones que a menudo involucran concesiones, o
como dicen los economistas, "análisis costo-beneficio". Al evaluar nuevas tecnologías y requerimientos,
los administradores deben medir sus beneficios contra los cuestionamientos, costos y problemas que
las nuevas funciones pueden introducir en la red. La Figura enumera algunos de los problemas
comunes de los que será responsable un administrador de redes.
39
2.2
Tipos de Redes
2.2.1
Descripción general
En el diseño y construcción de cada nueva herramienta, desde martillos hasta hamacas, desde
espátulas hasta estaciones espaciales, los ingenieros siguen la regla general de que la "Forma Sigue a
la Función" [Form Follows Function]. La forma que una herramienta toma está determinada por su
función. Un martillo está formado y construido para clavar clavos, una tetera para servir té. De manera
similar, las redes, como herramientas, asumen diferentes formas y se construyen de diferentes
materiales como consecuencia de las diferentes funciones que llevan a cabo.
Algunas redes están diseñadas para interconectar muchos usuarios y sistemas en una región
geográfica relativamente limitada y permitir la comunicación de alta velocidad entre ellos. Otras redes
conectan una cantidad más pequeña de dispositivos que están separados por grandes distancias. Para
cumplir con los requisitos de estas dos amplias categorías de usuarios, se han diseñado diferentes
tipos de redes. Las redes de área local (LANs) cumplen con los requisitos del primer grupo de usuarios.
Las redes de área amplia (WANs) satisfacen los requisitos del segundo. La Figura proporciona
ejemplos para ayudar a comprender mejor la diferencia entre LANs y WANs.
2.2
Tipos de Redes
2.2.2
Redes de Área Local (LANs)
Las redes de área local (LANs) conectan muchas computadoras en un área geográfica relativamente
pequeña como ser un hogar, una oficina, un edificio o un campus (ver Figuras y ). La red conecta
cada computadora a cada una de las otras usando un canal de comunicaciones separado. Una
conexión directa de una computadora a otra se llama enlace punto a punto. Si la red estuviera diseñada
usando enlaces punto a punto, la cantidad de enlaces crecería rápidamente a medida que nuevas
computadoras se agregaran a la red. Por cada computadora agregada, la red necesitaría una conexión
separada para cada una de las otras computadoras. Este enfoque sería muy costoso y difícil de
administrar.
40
A partir de finales de los '60 y principios de los '70, los ingenieros en redes diseñaron una forma de red
que permitía que muchas computadoras de un área pequeña compartieran un único canal de
comunicaciones. Permitiendo a las computadoras compartir un canal de comunicaciones, las LANs
reducen mucho el costo de la red. Los enlaces punto a punto se usan para conectar computadoras y
redes en pueblos o ciudades separadas, o incluso para atravesar continentes.
La forma o disposición general de una LAN se llama su topología. Cuando todas las computadoras se
conectan a un punto central o un hub, las red es una topología en estrella. Otra topología conecta las
computadoras en un bucle cerrado, donde un cable se tiende de una computadora a la siguiente y
luego de la segunda a su vecina hasta que la última se conecta nuevamente con la primera. Esto forma
una topología en anillo. Un tercer tipo, llamado topología de bus, conecta cada computadora en un
único cable largo. Cada topología tiene sus beneficios y sus inconvenientes. Hoy, la mayoría de las
LANs se diseñan usando alguna forma de topología en estrella, aunque las disposiciones en anillo y
bus todavía se usan en algunas instalaciones.
Cualquiera sea la topología de la red, todas las LANs requieren que las computadoras en red
compartan el canal de comunicaciones que las conecta. El canal de comunicaciones que todas
comparten se denomina el medio. Es por lo común un cable que transporta señales eléctricas a través
de cobre, o puede ser un cable de fibra óptica que transporte señales luminosas a través de vidrio o
plástico purificado. En el caso de las redes inalámbricas, las computadoras pueden usar antenas para
emitir señales de radio entre sí.
En una LAN, las reglas para coordinar el uso del medio se denominan Control de Acceso al Medio
(MAC). Puesto que hay muchas computadoras en la red pero solamente una de ellas puede usar el
medio a la vez, debe haber algunas reglas para decidir cómo se turnarán para compartir la red. Las
reglas de MAC permiten a cada computadora tener su turno para usar el medio para que haya una
forma justa y eficiente de compartir la red. En el caso de conflictos cuando más de una computadora
está contendiendo por el medio, las reglas aseguran que haya un método acordado para resolver el
conflicto. En secciones posteriores de este capítulo, los principales tipos de LANs se repasarán,
incluyendo sus reglas para compartir el medio.
2.2
Types of Networks
2.2.3
Wide-area networks (WANs)
Por razones económicas y técnicas, las LANs no son adecuadas para las comunicaciones a través de
largas distancias. En una LAN, las computadoras deben coordinar el uso de la red y esta coordinación
toma tiempo. A lo largo de largas distancias, las computadoras tomarían más tiempo para coordinar el
uso del medio compartido y menos tiempo enviando los mensajes de datos. Además, los costos de
proporcionar medios de alta velocidad sobre largas distancias son mucho mayores que en el caso de
las LANs. Por estas razones, las tecnologías de redes de área amplia (WAN) difieren de las LANs. La
Figura muestra un ejemplo de cómo una WAN es usualmente segmentada en mútiples LANs que
componen una WAN. También muestra que la diferente segmentación de la WAN aún está conectada.
41
Las diferentes ubicaciones de la WAN, que se muestran en las Figuras , usan líneas de
comunicación serial, punto a punto. Estas líneas se denominan punto a punto porque conectan
solamente dos dispositivos, uno de cada lado de la línea. Se llaman líneas serial porque los bits de
información se transmiten uno después del otro en una serie, como autos viajando por una ruta de un
solo carril. Por lo común, los individuos y compañías no construyen sus propias conexiones WAN.
Regulaciones del gobierno permiten solamente a las compañías de utilidades instalar líneas en
propiedad pública. Por lo tanto, las WANs hacen uso de las instalaciones de comunicación colocadas
por las compañías de utilidades, llamadas portadoras comunes, como la compañía telefónica.
Las conexiones a través de líneas WAN pueden ser temporales o permanentes. Usar un teléfono con
una línea de conexión telefónica por ejemplo, hará una conexión temporal a una red remota desde una
computadora en un hogar u oficina remota. En este caso, el hogar u oficina remota hace una llamada
telefónica a una computadora en el límite de la red remota. La compañía telefónica proporciona la
conexión, o circuito, que se usa mientras dura la llamada. Una vez transmitidos los datos, la línea se
desconecta como una llamada de voz ordinaria. Si una compañía desea transmitir datos en cualquier
momento sin tener que conectar y desconectar la línea cada vez, la compañía puede alquilar una línea
o circuito permanente a la portadora común. Estas líneas arrendadas son "always on" y operan a
velocidades más altas que las conexiones telefónicas temporales.
En los casos tanto temporal como permanente, las computadoras que se conectan a través de WANs
deben usar dispositivos especiales llamados Unidad de Servicio de Canal/Unidad de Servicio de Datos
(CSU/DSU) en cada extremo de la conexión. Éste es el punto de conexión donde los datos del usuario
que vienen de la computadora o la red hacen interfaz con la conexión WAN. Los datos que se envían
desde el usuario, que están en formato digital, necesitan convertirse a una forma que pueda
transmitirse a través del enlace WAN, que es analógico. La CSU/DSU o el módem convierten los datos
del usuario en una forma aceptable que puede enviarse a través del enlace WAN. Nuevamente, lo
mismo debe hacerse en el enlace WAN de destino para que los datos puedan convertirse a una forma
que la computadora pueda traducir. Este dispositivo actúa de manera similar a un módem (moduladordesmodulador). El extremo transmisor de la conexión (una CSU/DSU o módem) transforma las señales
digitales de la computadora en señales analógicas. En el extremo receptor se efectúa la transformación
inversa. Hay varias formas en las cuales pueden conectarse las WANs. Las Figuras , , y
muestran diferentes ejemplos de cómo pueden conectarse las WANs.
42
Las WANs normalmente operan a velocidades más bajas que las LANs. No obstante, una WAN puede
proporcionar el medio para conectar una única computadora o muchas LANs a través de largas
distancias para permitir que las redes abarquen países enteros e incluso todo el globo.
2.2
Tipos de Redes
2.2.4
Redes peer-to-peer
Usando tecnologías LAN y WAN muchas computadoras son interconectadas para proporcionar
servicios a sus usuarios. Para lograr esto, las computadoras en red asumen diferentes roles o funciones
en relación una con otra. Algunos tipos de aplicaciones requieren que las computadoras funcionen
como iguales. Otros tipos de aplicaciones distribuyen su trabajo de modo tal que una computadora
funcione para servir a una cantidad de otras en una relación desigual. En cualquier caso, dos
computadoras se comunican por lo común entre sí usando protocolos de solicitud/respuesta (ver Figura
). Una computadora emite una solicitud para un servicio, y una segunda computadora recibe y
responde a esa solicitud. El solicitante asume el rol de cliente, y quien responde asume el rol de
servidor.
43
En una red peer-to-peer, las computadoras en red actúan como iguales, o pares [peers] entre sí. Como
pares, cada computadora puede asumir la función de cliente o la función de servidor. En un momento,
la computadora A, por ejemplo, puede hacer una solicitud de un archivo a la computadora B, que
responde sirviendo el archivo a la computadora A. La computadora A funciona como cliente, mientras
que B funciona como servidor. Posteriormente, las computadoras A y B pueden invertir los roles. B,
como cliente, hace una solicitud a A, y A, como servidor, responde a la solicitud de B. A y B se
mantienen en una relación recíproca o de pares entre sí.
En una red peer-to-peer, los usuarios individuales controlan sus propios recursos. Ellos pueden decidir
compartir determinados archivos con otros usuarios. También pueden requerir contraseñas antes de
que permitan a otros acceder a sus recursos. Puesto que los usuarios individuales toman estas
decisiones, no hay un punto central de control o administración en la red. Además, los usuarios
individuales deben hacer backup de sus propios sistemas para poder recuperarse de una pérdida de
datos en caso de fallo. Cuando una computadora actúa como servidor, el usuario de esa máquina
puede experimentar un desempeño reducido mientras la máquina sirve las solicitudes hechas por otros
sistemas.
La Figura muestra que un usuario comparte la carpeta Docs con los otros. Después de compartir la
carpeta Docs, como lo muestra la Figura , el usuario que se está conectando al servidor Constellation
podrá navegar por la carpeta Docs desde la red. La Figura muestra cómo la carpeta será vista por la
red una vez compartida.
44
Las redes peer-to-peer son relativamente fáciles de instalar y operar. No es necesario un equipamiento
adicional más allá de un sistema operativo apropiado instalado en cada computadora. Puesto que los
usuarios controlan sus propios recursos, no se necesitan administradores dedicados. Una red peer-topeer funciona bien con una pequeña cantidad de computadoras, tal vez 10 o menos.
A medida que las redes crecen, las relaciones peer-to-peer se vuelven cada vez más difíciles de
coordinar. Puesto que no escalan bien, su eficiencia disminuye rápidamente a medida que la cantidad
de computadoras de la red se incrementa. Además, los usuarios individuales controlan el acceso a los
recursos en sus computadoras, lo cual significa que la seguridad puede ser difícil de mantener. El
modelo de red cliente/servidor puede usarse para superar las limitaciones del modelo de red peer-topeer.
2.2
Tipos de Redes
2.2.5
Redes cliente/servidor
En una disposición cliente/servidor, los servicios de red están ubicados en una computadora dedicada
llamada servidor, que responde a las solicitudes de clientes. El servidor es una computadora central
continuamente disponible para responder a la solicitud de un cliente de archivos, impresión,
aplicaciones y otros servicios. La mayoría de los sistemas operativos adoptan la forma de relaciones
cliente/servidor. Por lo común, las computadoras de escritorio funcionan como clientes y una o más
computadoras con potencia de procesamiento, memoria y software especializado adicionales funcionan
como servidores.
Los servidores están diseñados para manejar solicitudes de muchos clientes simultáneamente. Antes
de que un cliente pueda acceder a los recursos del servidor, el cliente debe identificarse a sí mismo y
estar autorizado para usar el recurso. Esto se hace asignando a cada cliente un nombre de cuenta y
contraseña que son verificados por un servicio de autenticación que actúa como centinela para guardar
el acceso a la red. Centralizando las cuentas de usuario, la seguridad y el control de acceso, las redes
basadas en servidor simplifican el trabajo de la administración de red. La Figura muestra ejemplos de
diferentes disposiciones de networking. La Figura demuestra cómo la información y los datos que se
almacenan en un servidor pueden localizarse en un servidor o pueden distribuirse a través de varios
servidores.
La concentración de recursos de red como archivos, impresoras y aplicaciones en servidores también
hace a los datos que generan más fáciles de resguardar como backup y mantener. En lugar de tener
estos recursos dispersos en máquinas individuales, pueden ubicarse en servidores especializados y
dedicados para un acceso más fácil. La mayoría de los sistemas cliente/servidor también incluyen
facilidades para mejorar la red y agregar nuevos servicios que extiendan la utilidad de la red.
La distribución de funciones en redes cliente/servidor trae ventajas sustanciales, pero también se
45
incurre en algunos costos. Las Figuras y enumeran algunas de estas ventajas y desventajas.
Aunque el agregado de recursos en sistemas servidor trae mayor seguridad, un acceso más simple y
un control coordinado, el servidor introduce un único punto de fallo en la red. Sin un servidor operativo,
la red no puede funcionar en absoluto. Los servidores requieren personal capacitado y experto para
administrar y mantener la red. Esto incrementa los gastos que genera la red. Los sistemas de servidor
también requieren hardware adicional y software especializado que se suman al costo.
2.3
Protocolos de Networking
2.3.1
Suite de Protocolos
Los protocolos son los motores de las redes. La función del modelo de referencia OSI es realizada en
la práctica por los protocolos activos en cada capa. Cuando un conjunto de protocolos funciona en
forma coordinada para brindar una cantidad de funciones, son agrupados en una "suite de protocolos".
TCP/IP representa una de tales suites de protocolos, IPX/SPX de Novell es otra, y AppleTalk de Apple
es otra. Un protocolo es una secuencia controlada de mensajes intercambiados entre dos o más
sistemas para realizar una tarea dada. Las especificaciones de los protocolos definen esta secuencia,
junto con el formato de los mensajes que son intercambiados. Al coordinar el trabajo entre los
sistemas, los protocolos utilizan estructuras de control en cada sistema que funcionan como un
conjunto de engranajes entrelazados. Las computadoras pueden entonces seguir el estado de sus
protocolos con precisión mientras se mueven a través de la secuencia de intercambios. El cronometraje
es crucial para las operaciones de red. Los protocolos requieren que los mensajes arriben dentro de
ciertos intervalos, por lo que los sistemas mantienen uno o más temporizadores durante la ejecución
del protocolo, y toman acciones alternativas si la red no respeta las reglas de tiempo. Para hacer su
trabajo, muchos protocolos dependen del funcionamiento de otros protocolos de la suite. La Figura
muestra algunas de estos protocolos y una breve descripción de ellos.
46
2.3
Protocolos de Networking
2.3.2
TCP/IP
La suite de protocolos TCP/IP se ha vuelto el estándar dominante para internetworking. Originalmente
fue definida por investigadores del Departamento de Defensa de Estados Unidos. TCP/IP representa
un conjunto de estándares públicos que especifica cómo se intercambian los paquetes de información
entre computadoras a través de una o más redes.
Protocolos de Aplicación
Los siguientes protocolos funcionan en la capa de aplicación del modelo OSI:
·
·
·
·
Telnet Telnet permite el acceso a la terminal de sistemas locales o remotos. La aplicación
telnet se usa para acceder a dispositivos remotos para configuración, control y detección de
problemas.
Protocolo de Transferencia de Archivos (FTP) FTP es una aplicación que proporciona
servicios de transferencia y manipulación de archivos. FTP usa la capa de Sesión para permitir
varias conexiones simultáneas a sistemas de archivos remotos.
Protocolo de Transporte de Correo Simple (SMTP) SMTP proporciona servicios de
mensajería sobre TCP/IP y soporta la mayoría de los programas de e-mail por Internet.
Sistema de Nombres de Dominio (DNS) DNS proporciona acceso a servidores de nombre
donde los nombres de red se traducen a las direcciones usadas por los protocolos de red de
Capa 3. DNS simplifica mucho el uso de la red de parte de los usuarios finales.
Protocolos de Transporte
Los siguientes protocolos funcionan en la capa de transporte del modelo OSI:
·
·
Protocolo de Control de Transmisión (TCP) TCP es el principal protocolo de Internet para la
entrega confiable de datos. TCP incluye facilidades para el establecimiento de conexiones de
extremo a extremo, detección y recuperación de errores, y medición de la tasa del flujo de
datos hacia la red. Muchas aplicaciones estándar, como e-mail, navegación por la web,
transferencia de archivos y Telnet, dependen de los servicios de TCP. TCP identifica la
aplicación usándola por un número de "puerto".
Protocolo de Datagramas del Usuario (UDP) UDP ofrece un servicio sin conexión para
aplicaciones que no desean la sobrecarga de TCP y pueden tolerar un nivel de pérdida de
datos. Aplicaciones en administración de redes, sistemas de archivos de red, y transporte de
archivos simples usan UDP. Como TCP, UDP identifica las aplicaciones por número de puerto.
Protocolos de Internet
Los siguientes protocolos funcionan en la capa de red del modelo OSI:
·
·
·
·
·
Protocolo Internet (IP) IP proporciona direccionamiento de origen y destino y, en conjunción
con los protocolos de enrutamiento, envío de paquetes de una red a otra hacia un destino.
Protocolo de Mensajes de Control de Internet (ICMP) ICMP se usa para pruebas en la red y
detección de problemas. Permite los mensajes de diagnóstico y error. Los mensajes de "eco"
ICMP son usados por la aplicación PING para probar dispositivos remotos.
Protocolo de Información de Enrutamiento (RIP) RIP opera entre dispositivos de router para
descubrir rutas entre redes. En una Internetwork, los routers dependen de un protocolo de
enrutamiento para construir y mantener información acerca de cómo enviar paquetes hacia su
destino. RIP elige rutas basándose en su distancia, o número de saltos.
Primero la Ruta Abierta Más Corta (OSPF) OSPF, como RIP, permite a los routers construir
tablas de enrutamiento. A diferencia de RIP, OSPF selecciona las rutas basándose en otras
características de los vínculos entre redes, como ancho de banda y retraso. OSPF es más
adecuado que RIP para el enrutamiento en grandes internetworks.
Protocolo de Resolución de Direcciones (ARP) ARP se usa para descubrir la dirección local
(MAC) de una estación de la red cuando su dirección IP es conocida. Las estaciones finales así
como los routers usan ARP para descubrir direcciones locales.
47
2.3
Protocolos de Networking
2.3.3
Estándares propietarios versus estándares abiertos
Tradicionalmente, los fabricantes de computadoras han intentado mantener los clientes para sí mismos
construyendo sistemas propietarios. Las tecnologías propietarias son propiedad de una compañía y
generalmente no son compatibles con el equipamiento vendido por otros fabricantes. Incluso hoy,
algunas compañías con una gran parte de un mercado en particular buscan establecer estándares
privados, de facto, para que otras compañías tengan que seguir sus reglas. De facto significa que se ha
convertido en un estándar industrial solamente porque la mayoría ha elegido implementarlo. Pero, con
la proliferación de equipamiento de computación y networking, se ha vuelto cada vez más difícil que los
estándares propietarios o de facto sobrevivan. Las computadoras de diferentes fabricantes deben
comunicarse entre sí e interoperar. Los clientes desean flexibilidad y ya no aceptarán sistemas que
limiten sus opciones a un único fabricante. Los estándares públicos para sistemas de networking
aseguran que el equipamiento de diferentes fabricantes funcionen juntos.
Los estándares de networking son desarrollados por una cantidad de organizaciones que se
especializan en desarrollar estándares para la tecnología de networking. Las compañías envían sus
ingenieros a los comités de estándares para diseñar y acordar una especificación para una función de
networking en particular. Estas especificaciones luego se hacen públicas para que todos los fabricantes
puedan construir sus sistemas para que se conformen a los estándares.
Hay algunas personas dentro de la industria de la informática que no están conformes con las
limitaciones que imponen los estándares propietarios y prefieren en cambio usar el estándar de fuente
abierta. Éste fue el principal argumento que tenía Microsoft para defenderse en su juicio por monopolio.
Si se toma la decisión de no usar software propietario como Dell, Compaq y Microsoft por ejemplo,
existe la opción de elegir fuente abierta. El software de fuente abierta es gratis y los usuarios no están
atados a las leyes de derecho de autor que podrían romperse al usar software propietario. A diferencia
de la mayoría del software comercial, el código central de tral software puede ser fácilmente estudiado
por otros programadores y mejorado. La única provisión es que estas mejoras deben revelarse
públicamente y distribuirse gratuitamente en un proceso que estimula una continua innovación.
Un líder en la arena de la fuente abierta es Linux. Se dieron cuenta del potencial y establecieron
estándares para lo que la fuente abierta puede lograr. El sistema operativo Linux se tratará en más
profundidad en otros capítulos.
El debate acerca de los sistemas propietarios, como Microsoft, y los sistemas de fuente abierta, como
Linux, sigue siendo un tema candente. Decidir cuál es mejor depende de una preferencia individual. La
Figura bosqueja algunas de las ventajas y desventajas de los sistemas tanto propietarios como de
fuente abierta.
48
2.4
Arquitecturas LAN
2.4.1
Ethernet
La arquitectura Ethernet es el tipo más popular de vínculo LAN usado hoy. Se basa en el estándar
802.3. Éste especifica que una red que implementa el método de control de acceso Acceso Múltiple con
Detección de Portadora/Detección de Colisiones (CSMA/CD) debe usar una transmisión de banda base
sobre cable coaxial o de par trenzado que es tendido en una topología de bus (es decir, un bus lineal o
en estrella). CSMA/CD significa que múltiples estaciones tendrán acceso a los medios, y antes de que
una estación pueda acceder a esos medios, debe primero escuchar (detección de portadora) para
detectar si otro sistema está usando los mismos medios. De ser así, entonces ese sistema debe
esperar antes de poder transmitir. Si ambos sistemas intentan enviar datos al mismo tiempo, entonces
resultará una colisión.
Las tasas de transferencia estándar son 10 megabits por segundo (Mbps) o 100 Mbps. Los nuevos
estándares proporcionan Ethernet de un Gigabit, capaz de lograr velocidades de hasta un Gbps sobre
cable de fibra óptica u otro medio de alta velocidad. La Figura muestra una tabla de especificaciones
de Ethernet principales.
10BASE-T
Actualmente, 10BASE-T es una de las implementaciones de Ethernet más populares. Usa una
49
topología de bus en estrella.
El término cable Ethernet puede usarse para describir el cableado de par trenzado sin blindaje (UTP)
usado en general en esta arquitectura. También puede usarse Par Trenzado Blindado (STP). 10BASET y 100BASE-X crean redes fáciles de tender y expandir.
Una ventaja de 10BASE-T es que es de relativo bajo costo. Aunque se requiere un hub al conectar más
de dos computadoras, pequeños hubs están disponibles a bajo costo, y las placas de red 10BASE-T
son baratas y ampliamente disponibles.
NOTA: Dentro del hub Ethernet, el sistema de señalización es un bus, como en las redes Ethernet de
coaxial.
NOTA: Las especificaciones de 10BASE-T requieren un hub. No obstante, si se conectan solamente
dos computadoras (por ejemplo, para una red hogareña), y se prefiere UTP en lugar de thinnet, puede
usarse un cable cruzado. Este tipo de cable tiene pares de alambres que están conectados de manera
cruzada. Los cables cruzados también se usan para conectar dos hubs entre sí si los hubs no tienen
puertos enlace arriba.
UTP, que es el cable de par trenzado usado más comúnmente, es delgado, flexible y más fácil de
trabajar con él que el coaxial. Usa enchufes y fichas modulares RJ-45, por lo que es fácil conectar el
cable a la NIC o al hub.
Otra importante ventaja de 10BASE-T es su capacidad para la actualización. Por definición, una red
10BASE-T corre a 10 Mbps. Usando un cable Categoría 5 o superior y NICs de velocidad dual de
10/100 Mbps, actualizar a 100 Mbps puede lograrse simplemente reemplazando los hubs.
Las desventajas de 10BASE-T son que la longitud máxima para un segmento 10BASE-T (sin
repetidores) es de solamente 100 metros (alrededor de 328 pies). Además, el UTP usado es más
vulnerable a la interferencia electromagnética (EMI) y a la atenuación que otros tipos de cable. La
atenuación es la disminución de la señal, a medida que se aleja de su origen. Por ejemplo, en un
segmento 10BASE-T, la fuerza de la señal sería buena hasta una distancia de 100 metros. Desde ese
punto en adelante, perdería confiabilidad sin el uso de un repetidor.
Las demandas de elevado ancho de banda de muchas aplicaciones modernas, como video conferencia
en vivo y streaming audio, han creado una necesidad de velocidad. Muchas redes requieren más
throughput del que es posible con Ethernet de 10 Mbps. La siguiente evolución es 100BASE-X, también
llamada Fast Ethernet.
100BASE-X
100BASE-X viene en diferentes variantes. Puede implementarse sobre UTP Categoría 5 (100BASE-T),
sobre UTP o STP Categoría 5 de 2 pares (100BASE-TX) o como Ethernet sobre cable de fibra óptica
de 2 fibras (100BASE-FX).
·
Ventajas de 100BASE-X Independientemente de la implementación, la gran ventaja de
100BASE-X es su desempeño de alta velocidad. A 100 Mbps, las velocidades de transferencia
son 10 veces las de 10BASE-T.
Porque usa cableado de par trenzado, 100BASE-X también comparte las mismas ventajas de
10BASE-T. Estas incluyen bajo costo, flexibilidad, y facilidad de implementación y expansión.
·
Desventajas de 100BASE-X 100BASE-X comparte las desventajas de 10BASE-T, que son
inherentes al cableado de par trenzado, como la susceptibilidad a la EMI y a la atenuación. Las
NICs y los hubs de 100 Mbps son generalmente un poco más caros que los diseñados para las
redes de 10 Mbps, pero los precios han bajado a medida que 100BASE-X ha ganado
popularidad. El cable de fibra óptica sigue siendo una opción de cableado cara, no tanto por el
50
costo del cable en sí, sino por la capacitación y pericia requeridas para instalarlo.
1000BASE-T
La nueva adición a la familia Ethernet, 1000BASE-T se llama Ethernet de un Gigabit. Aunque todavía
no está en amplia implementación en las redes de producción, esta arquitectura soporta velocidades de
transferencia de datos de 1 gigabit por segundo (Gbps), que es muchas veces más rápida que una
línea T-1.
·
·
Ventajas de 1000BASE-T La mayor ventaja de 1000BASE-T es por supuesto, el desempeño.
A 1 Gbps, es 10 veces más rápida que Fast Ethernet y 100 veces más rápida que la Ethernet
estándar. Esto hace posible implementar aplicaciones intensivas en ancho de banda, como
video en vivo, en toda una intranet.
Desventajas de 1000BASE-T Las únicas desventajas asociadas a 1000BASE-T son aquéllas
comunes a todas las redes UTP, como se detalla en las secciones sobre 10BASE-T y
100BASE-T.
Half Duplex versus Full Duplex
Cuando se transmiten datos sobre todos estos medios diferentes, se los envía en half duplex o full
duplex. Half duplex permite usar solamente una dirección a la vez cuando los datos se transmiten sobre
las líneas. Esto significa que los datos solamente pueden enviarse y recibirse en ocasiones separadas.
La Figura ilustra este concepto mostrando una transmisión donde las señales solamente pueden
transmitirse en una dirección a la vez. Full duplex permite dos direcciones simultáneas de flujo de
datos. De la Figura una conversación telefónica entre dos personas es un buen ejemplo de cómo la
transmisión full duplex tiene lugar. En este caso, ambas personas pueden hablar y comunicarse al
mismo tiempo, enviando señales en ambas direcciones simultáneamente. Con full duplex, los datos
pueden enviarse y recibirse al mismo tiempo. Los datos fluirán en cada dirección simultáneamente
permitiendo velocidades de transferencia más rápidas a través de la red.
Estructuras de bus y estrella con hubs de bus (CSMA/CD) no pueden soportar full duplex. En
consecuencia, los ejemplos dados deben ser half duplex. La única forma en la cual full duplex puede
soportarse es si hay dos nodos solamente conectados juntos. Reemplazar el hub por un switch y usar
solamente un host en cada puerto del switch permitirá el uso de full duplex.
2.4
Arquitecturas LAN
2.4.2
DSL
La Línea de Suscriptor Digital (DSL) es una tecnología always-on. Esto significa que no hay necesidad
de marcar cada vez que se conecta a Internet. Es una tecnología relativamente nueva actualmente
ofrecida por compañías telefónicas como servicio agregado sobre líneas telefónicas existentes de
alambre de cobre.
51
DSL viene en las siguientes variedades:
·
·
·
·
·
DSL Asimétrica (ADSL) actualmente es la implementación más común. Tiene velocidades que
varían de los 384 kbps a más de 6 Mbps downstream. La velocidad upstream es por lo común
más baja.
DSL de Alta Velocidad de Datos (HDSL) proporciona un ancho de banda de 768 kbps en
ambas direcciones.
DSL Simétrica (SDSL) proporciona la misma velocidad, hasta 3 Mbps, para cargas y
descargas.
DSL de Muy Alta Velocidad de Datos (VDSL) logra anchos de banda entre los 13 Mbps y los 52
Mbps.
DSL ISDN (IDSL) tiene una velocidad máxima de 144 kbps pero está disponible en áreas que
no califican para otras implementaciones de DSL. IDSL es actualmente DSL sobre líneas
ISDN.
La Figura resume información útil sobre las diferentes variedades de DSL. El término genérico para
DSL, incluyendo todas sus implementaciones, es xDSL.
52
Las velocidades de transferencia a menudo se dividen en velocidades upstream y downstream.
Upstream es el proceso de transferir datos del usuario final al servidor. Downstream es el proceso de
transferir datos del servidor al usuario final. Por ejemplo, cuando un nombre de usuario y contraseña se
entrega para obtener acceso a una cuenta de e-mail, está cargando, o transfiriendo datos upstream, al
servidor de e-mail. Cuando el contenido de la bandeja de correo se muestra en el navegador web, esos
datos se descargan, o transfieren downstream, a esa computadora.
ADSL es actualmente la tecnología DSL más comúnmente usada. Su rápida velocidad downstream,
por lo común de 1,5 Mbps, parece funcionar a su favor porque la mayoría de los usuarios de Internet
pasan la mayor parte de su tiempo haciendo tareas que requieren mucha descarga, como verificar el email y navegar por la web. La velocidad de carga más lenta no funciona tan bien al albergar un servidor
web o servidor FTP, pues ambos involucran actividades de Internet intensivas en carga.
ADSL usa una tecnología llamada multiplexado por división de frecuencia (FDM) para dividir el ancho
de banda para crear varios canales. Otras implementaciones de DSL usan otra técnica conocida como
cancelación de eco, que es más eficiente pero también más cara. Esta capacidad para crear varios
canales es la razón por la cual un usuario con DSL puede navegar por Internet mientras al mismo
tiempo usa el teléfono para llamar a un amigo.
2.4
Arquitecturas LAN
2.4.3
Cable módems
Un cable módem actúa como una interfaz LAN conectando una computadora a Internet. El cable módem
conecta una computadora a la red de la compañía de cable mediante el mismo cableado coaxial que
alimenta las señales de Televisión por Cable (CATV) a un televisor. En general, los cable módems están
diseñados para proporcionar solamente acceso a Internet, mientras que los módems analógicos o
adaptadores ISDN permiten marcar con cualquier proveedor de servicios o servicio en un servidor de acceso
remoto. Con un cable módem, debe usarse la compañía de cable.
El servicio de cable módem, similar a DSL, es también una tecnología always-on. Un cable módem estándar
tiene dos conexiones. Un puerto se conecta a la salida del televisor, y el otro se conecta a la PC suscriptora.
El cable módem comunicará entonces mediante la red de cable al Sistema de Terminación de Cable Módem
(CMTS). La velocidad del cable módem depende de los niveles de tráfico y de cómo la red en general está
tendida. Aunque el servidor con el que se está teniendo contacto se encuentra en una ubicación remota, el
acceso al cable módem se parece más a una conexión LAN directa que al acceso remoto.
Los cable módems son capaces de recibir y procesar contenidos multimedia a 30 Mbps, literalmente cientos
de veces más rápido que una conexión telefónica normal a Internet. En realidad, los suscriptores pueden
esperar descargar información a velocidades de entre 0,5 y 1,5 Mbps porque el ancho de banda es
compartido por una cantidad de otros usuarios. El módem recibe señales alteradas digitalmente. Un
desmodulador se incorpora al módem y, si es u módem de dos vías, un modulador de estallidos se usa para
transmitir los datos upstream.
Los cable módems están disponibles como unidades internas y externas. La mayoría de los cable módems
internos asumen las forma de placas PCI. Un cable módem externo es una pequeña caja con una conexión
53
de cable coaxial CATV. Se usa un bifurcador para dividir la señal entre el televisor y el cable módem. La caja
se conecta a una placa Ethernet de la computadora mediante Ethernet UTP. Dispositivos USB externos
también pueden estar disponibles, conectando el módem al puerto USB de la computadora sin requerir una
placa Ethernet.
Actualmente no hay estándares para cable módems en la industria del acceso por cable. Como resultado,
hay muchos productos propietarios competidores. El servicio del cable, la velocidad, confiabilidad, instalación
y configuraciones pueden variar significativamente de una compañía de cable a otra. Actualmente, las
marcas más comunes de cable módems son de Cisco Systems, 3Com, Com21, Bay Networks, Motorola,
RCA, Toshiba, Linksys, NETGEAR, y Terayon. La Figura muestra un ejemplo de un cable módem Cisco
típico.
En lo que se refiere a comparar el cable módem y las tecnologías de Internet DSL ambos tienen sus pro y
sus contra. El servicio DSL puede agregarse de manera incrementada en un área. Esto significa que el
proveedor del servicio puede actualizar el ancho de banda a medida que crece la base de suscriptores. DSL
es también compatible con voz analógica y hace uso del bucle local existente. Esto significa que el servicio
DSL funciona simultáneamente con el servicio telefónico normal. No obstante, DSL sufre de limitaciones de
distancia ya que la mayoría de los servicios DSL actualmente requieren que el cliente se encuentre dentro de
los 18.000 pies de la ubicación de la oficina central del proveedor. Además, los bucles más largos y antiguos
presentan problemas, y la mejor forma de soporte de voz todavía se está debatiendo. Además, la velocidad
upstream (de carga) es usualmente considerablemente más baja que la velocidad downstream (de
descarga).
Inversamente, la tecnología de cable módem presenta abundante ancho de banda relativamente barato. Los
canales de Internet downstream y upstream son vistos como cualquier otro canal de televisión premium por
el sistema. Ésta es una importante ventaja, especialmente cuando se alberga un servidor web o servidor
FTP, que involucra tareas de Internet de carga intensiva. El uso de fibra (híbrida-fibra-coaxial o HFC)
resuelve algunas de las desventajas del servicio que inicialmente encontró esta tecnología.
Desafortunadamente, la infraestructura de cableado necesaria para soportar la tecnología cable módem ha
sido lenta en su actualización por lo que la mayoría de los hogares de Estados Unidos no pueden usar esta
tecnología. La actualización es una gran inversión particularmente para los pequeños proveedores.
Resumen
Este capítulo proporcionó una introducción al networking. Algunos de los conceptos importantes
a retener de este capítulo incluyen los siguientes:
·
·
·
·
·
·
Los beneficios del networking incluyendo el e-mail, Internet, y la capacidad para
compartir aplicaciones, dispositivos y archivos.
Las redes de área local (LANs) se usan para conectar muchas computadoras en un área
geográfica relativamente pequeña. Una conexión directa de una computadora a otra se
llama enlace punto a punto.
Los tres tipos de topología LAN son estrella, bus y anillo.
Una red de área amplia (WAN) puede proporcionar los medios para conectar
computadoras únicas y muchas LANs a través de grandes distancias para permitir a las
redes abarcar países enteros e incluso todo el globo. Las conexiones de área amplia
entre computadoras usan líneas de comunicaciones punto a punto serial.
El modelo OSI está compuesto por siete capas. Es importante conocer qué es cada capa
y la función que cada una proporciona en la red.
Aunque TCP/IP se está convirtiendo en el estándar para los protocolos, otras compañías
como Novell y Apple tienen suites de protocolos para sus sistemas. Un protocolo es una
secuencia controlada de mensajes intercambiados entre dos o más sistemas para lograr
una tarea determinada.
El siguiente capítulo detalla los componentes físicos de una red. Esto incluye NICs, topología,
medios de networking, dispositivos, y conexión a Internet.
54
3. Componentes físicos de una red
Descripción general
En este capítulo, el alumno estudiará los conceptos fundamentales de la red. Las opciones que
se toman cuando se diseña una red de computadora determinan cuán bien funciona el sistema.
Este capítulo trata cómo las topologías física y lógica combinadas con el medio y los dispositivos
de red permiten a todas las computadoras conectadas al sistema comunicarse entre sí y con
Internet.
3.1
Configuración de una Tarjeta de Interfaz de Red
3.1.1
¿Qué es una NIC?
Una tarjeta de interfaz de red (NIC) es un dispositivo que se conecta a una motherboard y proporciona
puertos para las conexiones de medios de la red. Es el componente de la computadora que sirve de
interfaz con la red de área local (LAN). Cuando se instalan las tarjetas de interfaz de red en una
computadora, el IRQ, la dirección de E/S, y el espacio en la memoria para los controladores del sistema
operativo se configurarán automáticamente para que lleven a cabo su función. No obstante, en el caso
de NICs más antiguas estas configuraciones tendrían necesidad de configurarse manualmente.
La siguiente información es importante a considerar al seleccionar una NIC para utilizar en una red:
·
·
·
El tipo de red Las NICs están diseñadas para LANs Ethernet, Token Ring, Interfaz de Datos
Distribuidos por Fibra (FDDI), y otras. Una NIC diseñada para LANs Ethernet no funcionará en
redes Token Ring y viceversa.
El tipo de medio El tipo de puerto o conector de una NIC que proporciona conexión a la red es
específico del medio. Los tipos de medio incluyen par trenzado, coaxial, fibra óptica, e
inalámbrico.
El tipo de bus del sistema Los slots de Información de Control del Protocolo (PCI) son más
rápidos que los de Arquitectura Estándar de la Industria (ISA). Se recomienda el uso de PCI
con tarjetas FDDI, ya que un bus ISA no podrá manejar la velocidad requerida.
3.1
Configuración de una Tarjeta de Interfaz de Red
3.1.2
Configuración de la dirección IP
En una LAN basada en TCP/IP, las PCs utilizan direcciones del Protocolo Internet (IP) para
identificarse y localizarse entre sí. Una dirección IP es un número binario de 32 bits. Este número
binario se divide en 4 grupos de 8 bits denominados octetos, cada uno de los cuales es representado
por un número decimal en el rango de 0 a 255. Los octetos se separan por medio de puntos decimales.
Un ejemplo de dirección IP es 190.100.5.54. Este tipo de dirección se describe como representación
decimal de punto. Cada dispositivo de la red que tenga una dirección IP se denomina host o nodo.
Un número decimal de punto secundario, denominado máscara de subred, siempre acompaña a una
dirección IP. Una máscara de subred es una herramienta usada por un administrador del sistema para
segmentar la dirección de red que ha sido asignada a la red. La técnica de subnetting permite a toda la
red ser representada en Internet por una única dirección. Un ejemplo de máscara de subred es
55
255.255.0.0. La máscara de subred también se utiliza para determinar si una dirección IP de un host en
particular es local (en el mismo segmento de red) o remota (en otro segmento).
Existen varias opciones para asignar direcciones IP para hosts en una LAN:
·
·
·
Estática Asignada por el administrador de red manualmente
Dinámica Asignada por un servidor de Protocolo de Configuración Dinámica del Host (DHCP)
(los servidores DHCP se tratan en la siguiente sección).
Automática Direccionamiento IP privado
Si hay más de unas pocas computadoras, configurar manualmente direcciones TCP/IP para cada host
de la red puede ser un proceso que consuma mucho tiempo. Esto también requiere que el
administrador de red que asigna las direcciones comprenda el direccionamiento IP y sepa cómo elegir
una dirección válida para la red en particular. Una dirección IP es única para cada host. La dirección IP
se almacena en las Configuraciones de Red del Software del Sistema Operativo. Se denomina
comúnmente dirección lógica. El direccionamiento TCP/IP se enseñará posteriormente en este curso.
En el sistema operativo Windows, la dirección IP se introduce manualmente en el recuadro de diálogo
Propiedades TCP/IP. La Figura muestra el recuadro de diálogo TCP/IP, que se usa para establecer
las configuraciones de dirección que se introducen, que incluyen lo siguiente:
·
·
·
·
Una dirección IP
Una máscara de subred
Dirección de gateway por defecto
Valores opcionales incluyendo una dirección de servidor de Sistema de Nombre de Dominio
(DNS) y un Servicio de Nombrado de Internet Windows (WINS)
La dirección de gateway por defecto y la DNS se tratan en una sección posterior.
3.1
Configuración de una Tarjeta de Interfaz de Red
3.1.3
Servidores DHCP
Otra forma de que las computadoras de una red obtengan una dirección IP es mediante un servidor de
Protocolo de Configuración Dinámica del Host (DHCP). DHCP es una utilidad de software que
automáticamente asigna direcciones IP a las PCs. La computadora que ejecuta el software se
denomina servidor DHCP. Los servidores DHCP asignan la dirección IP y la información de
configuración TCP/IP a las computadoras configuradas como clientes DHCP. Este proceso dinámico
56
elimina la necesidad de asignaciones de direcciones IP manuales. No obstante, cualquier dispositivo
que requiera una dirección IP estática o permanente debe aún tener asignada manualmente su
dirección IP. La Figura muestra un ejemplo de la herramienta, que un usuario utilizaría para
configurar un servidor para que ejecute servicios DHCP a sistemas cliente en la red.
Cuando el servidor DHCP recibe una solicitud de un host, selecciona información acerca de la dirección
IP a partir de un conjunto de direcciones predefinidas que están almacenadas en su base de datos.
Una vez que haya seleccionado la información IP, ofrece estos valores al dispositivo solicitante de la
red. Si el dispositivo acepta la oferta, el servidor DHCP prestará entonces la información IP al
dispositivo durante un periodo específico.
La información sobre la dirección IP que un servidor DHCP puede asignar a hosts que están
comenzando en la red incluye la siguiente:
·
·
·
·
Una dirección IP
Una máscara de subred
Gateway por defecto
Valores opcionales incluyendo una dirección de servidor DNS y WINS
El uso de este sistema simplifica la administración de una red porque el software rastrea las
direcciones IP. Configurar automáticamente TCP/IP también reduce la posibilidad de asignar
direcciones IP duplicadas o inválidas. Para que cualquier computadora de la red aproveche los
servicios proporcionados por el servidor DHCP, debe primero poder identificar al servidor de la red
local. La opción de obtener una dirección IP automáticamente se selecciona en el recuadro de diálogo
Propiedades TCP/IP. La Figura muestra un ejemplo de la pantalla de configuración de dirección IP
de un cliente Windows cuando es configurada con una dirección IP a través de DHCP. En otros casos,
una función del sistema operativo llamada Direccionamiento IP Privado Automático (APIPA) permite a
una computadora asignarse una dirección si no puede ponerse en contacto con un servidor DHCP.
57
3.1
Configuración de una Tarjeta de Interfaz de Red
3.1.4
Sistema de Nombres de Dominio
En una LAN a gran escala a menudo es un desafío recordar las direcciones IP de los hosts. La mayoría
de los hosts son identificados en Internet por nombres informáticos amigables denominados nombres
de host. El Sistema de Nombres de Dominio (DNS) se usa para traducir los nombres informáticos,
como www.cisco.com a la dirección IP única correspondiente. El proceso de resolución de nombres se
demuestra en la Figura . El software DNS se ejecuta en una computadora que actúa como servidor
de red y hace las traducciones de direcciones. El software DNS puede estar albergado en la red por sí
misma o por un Proveedor de Servicios de Internet (ISP). Las traducciones de direcciones se utilizan
cada vez que se accede a Internet. El proceso de traducir nombres a direcciones se denomina
resolución de nombres.
El servidor DNS mantiene registros que mapean los nombres informáticos (de host) y su
correspondiente dirección IP. Estos tipos de registro se combinan en la tabla DNS. Cuando un nombre
de host necesita traducirse a su dirección IP, el cliente contacta al servidor DNS. Existe una jerarquía
de servidores DNS en Internet con diferentes servidores que mantienen la información DNS para sus
propias áreas de autoridad, llamadas zonas. Si el servidor DNS que es consultado por una
computadora no tiene un mapeo IP para el nombre de host que se está buscando, pasará la consulta a
otro servidor DNS hasta obtener la información. Si el nombre no puede resolverse en una dirección IP
en el servidor DNS de más alto nivel, se devuelve un mensaje de error. La Figura muestra un
ejemplo de la herramienta, que un usuario utilizaría para configurar servicios DNS en Windows 2000.
58
DNS no es un requisito absoluto para comunicarse en Internet, pero sin él todas las comunicaciones
deben usar direcciones IP en lugar de nombres de host. Es mucho más fácil recordar "www.cisco.com"
que 198.133.219.25.
Para que las computadoras de la LAN accedan a y hagan uso de los servicios DNS, la dirección IP del
servidor DNS debe configurarse en Configuración de Red. La dirección IP del servidor DNS puede
introducirse manualmente en el recuadro de diálogo Propiedades TCP/IP de Internet que se muestra
en la Figura , o puede configurarse automáticamente por funciones adicionales usadas en DHCP.
3.1
Configuración de una Tarjeta de Interfaz de Red
3.1.5
Gateway por defecto
Una computadora ubicada en un segmento de red que está intentando hablar con otra computadora en
un segmento diferente pasando por un router, envía los datos a través de un gateway por defecto. El
gateway por defecto es la interfaz del lado cercano del router. Es la interfaz del router a la cual el
segmento o cable del segmento de red informática local está conectado. Para que cada computadora
reconozca su gateway por defecto, la dirección IP de la interfaz del router del lado cercano
correspondiente tiene que introducirse en el recuadro de diálogo Propiedades TCP/IP del host. La
Figura demuestra cómo el gateway por defecto sería configurado y su relación con las otras
interfaces del router en la red.
59
3.2
Topologías
3.2.1
La topología de red
La topología de red define la disposición de la red. Muestra cómo los dispositivos de la red están
interconectados. Los dispositivos de la red se denominan nodos. Ejemplos de nodos incluyen
computadoras, impresoras, routers, bridges y otros componentes conectados a la red. La topología
tiene influencia en la forma en que opera la red.
En las siguientes secciones, se tratarán los diferentes tipos de topologías. Estos tipos incluyen las
topologías de bus, estrella, estrella extendida, anillo, malla e híbrida. Una red tiene una topología tanto
física como lógica. La Figura representa un diagrama de una topología de red que podría existir en
una red típica. Note cómo varios de los diversos tipos de topologías de red existen en esta red de
ejemplo.
3.2
Topologías
3.2.2
Topología física versus topología lógica
Las redes pueden tener tanto una topología física como una topología lógica:
·
·
Topología física El ejemplo de la Figura muestra la topología física de una red, que se
refiere a la disposición de los dispositivos y los medios.
Topología lógica El ejemplo de la Figura muestra la topología lógica de una red, que se
refiere a las rutas que atraviesan las señales de un punto de la red a otro (es decir, la forma en
la cual los datos acceden al medio y transmiten los paquetes a través de él).
60
Estas dos terminologías pueden ser un tanto confusas, en parte porque la palabra "lógica" en este caso
no tiene nada que ver con la forma en que la red parece funcionar. Las topologías física y lógica de una
red pueden ser la misma. Por ejemplo, en una red físicamente en forma de bus lineal, los datos viajan
en línea recta de una computadora a la siguiente. (Los alumnos aprenderán qué es una topología de
bus lineal en la siguiente sección de este capítulo). De ahí que tenga una topología física de bus y una
topología lógica de bus.
Una red también puede tener topologías física y lógica muy diferentes. Por ejemplo, una topología física
en forma de estrella, donde los segmentos de cable pueden conectar todas las computadoras a un hub
central, puede de hecho tener una topología lógica de anillo. Recuerde que en un anillo, los datos viajan
de una computadora a la siguiente. Eso se debe a que dentro del hub, las conexiones de los alambres
son tales que la señal realmente viaja en círculo de un puerto al siguiente, lo cual crea un anillo lógico.
Por lo tanto, las predicciones respecto a cómo viajan los datos en una red no pueden siempre hacerse
simplemente observando la disposición física.
Token Ring usa una topología de anillo lógico en un anillo físico o estrella física. Ethernet usa una
topología lógica de bus en un bus físico o estrella física.
3.2
Topologías
3.2.3
Identificación de Topologías de Red
Topología de Bus
Comúnmente denominada bus lineal, todos los dispositivos de una topología de bus están conectados
por un único cable, que procede de una computadora a la siguiente como una línea de autobuses a
través de una ciudad. El segmento de cable principal debe finalizar con un terminador que absorbe la
señal donde llega al final de la línea o cable. Si no hay un terminador, la señal eléctrica que representa
a los datos rebota hacia atrás al final del cable, ocasionando errores en la red. Sólo un paquete de
datos puede transmitirse a la vez. Si se transmite más de un paquete, éstos colisionan y tienen que
reenviarse. Una topología de bus con muchos hosts puede ser muy lenta debido a las colisiones. Esta
topología se utiliza raramente y sólo sería apta para una oficina en el hogar o pequeño negocio con sólo
unos pocos hosts. La Figura muestra un ejemplo de una topología de bus típica. La Figura delinea
algunas de las ventajas y desventajas del uso de una topología de bus en una red.
61
Topología en Estrella
La topología en estrella es la arquitectura más comúnmente utilizada en LANs Ethernet. Una vez
instalada, la topología en estrella se asemeja a los rayos de una rueda de bicicleta. Se compone de un
punto de conexión central que es un dispositivo, como un hub o switch, donde todos los segmentos de
cableado realmente se unen. Cada host de la red está conectado al dispositivo central con su propio
cable como lo muestra la Figura .
Cuando una red en estrella se expande para incluir un dispositivo de networking adicional, como un hub
o switch conectado al dispositivo de networking principal, se denomina topología en estrella extendida.
La Figura muestra un ejemplo de una topología en estrella extendida típica. La mayor parte de las
redes más grandes, como las de corporaciones o escuelas, utilizan la topología en estrella extendida.
Esta topología, cuando se la utiliza con dispositivos de red que filtran paquetes de datos, como switches
y routers, reduce significativamente el tráfico en los cables. Los paquetes se envían sólo a los cables
del host de destino. La Figura enumera las ventajas y desventajas de una topología en estrella.
62
Topología en Anillo
La topología en anillo es otra topología importante en la conectividad LAN. Como el nombre lo implica,
los hosts se conectan en forma de anillo o círculo. A diferencia de la topología de bus, no tiene principio
ni fin que necesite ser terminado. Los datos se transmiten de forma diferente a la topología de bus o en
estrella. Un frame, denominado token, viaja alrededor del anillo y se detiene en cada nodo. Si un nodo
desea transmitir datos, agrega dichos datos y la información de direccionamiento al frame. El frame
continúa entonces alrededor del anillo hasta encontrar el nodo de destino, que saca los datos del frame.
63
La ventaja de usar este método es que no hay colisiones de paquetes de datos.
Existen dos tipos de anillos:
1. Con el anillo simple, que se muestra en la Figura , todos los dispositivos de la red comparten
un único cable, y los datos viajan en una sola dirección. Esto significa que cada dispositivo
espera su turno para enviar datos por la red.
2. Con el anillo dual, que se muestra en la Figura , dos anillos permiten a los datos ser enviados
en ambas direcciones. Esto crea redundancia, o tolerancia a fallos, lo cual significa que en caso
de fallo de un anillo, los datos aún se transmitirán por el otro anillo.
Topología de Malla
La topología de malla conecta a todos los dispositivos, o nodos, entre sí para obtener redundancia y
tolerancia a fallos. Se utiliza en Redes de Área Amplia (WANs) para interconectar LANs y para redes
críticas como las usadas por los gobiernos. La topología de malla es cara y difícil de implementar. La
Figura muestra un ejemplo de cómo se conectan los dispositivos en una topología de malla.
Topología Híbrida
La topología híbrida combina más de un tipo de topología. Cuando una línea de bus se une a dos hubs
de diferentes topologías, la configuración se denomina estrella bus. Los negocios o las escuelas que
tienen varios edificios, denominados campus, a veces usan esta tecnología. La línea de bus se usa
64
para transferir los datos entre las topologías en estrella como muestra la Figura
3.3
Tipos de Medios
3.3.1
Medios de Networking
.
Los medios de networking pueden definirse simplemente como los medios a través de los cuales las
señales, o los datos, se envían de una computadora a otra. Las señales pueden transmitirse a través
de cable o por medios inalámbricos. Existe una amplia variedad de medios de networking en el
mercado. Se tratarán los siguientes tipos de medios:
·
·
·
Cobre incluyendo coaxial y par trenzado
Vidrio fibra óptica
Ondas inalámbricos
Existen dos categorías de cable para cada tipo de medio, como coaxial, par trenzado, y fibra óptica:
·
·
Pleno La palabra pleno se refiere al espacio entre un falso cielo raso y el piso por encima de él
en un edificio. El cableado de red que se tiende en este espacio debe retardar el fuego. El
cable de categoría pleno, llamado comúnmente cable para plenos, se refiere al cable con una
vaina exterior hecha de Teflon u otro material que cumple con códigos contra incendios y de
edificación.
PVC La vaina exterior de los cables categoría no-pleno está hecha de Cloruro de Polivinilo
(PVC). El PVC es un material protector menos caro que los materiales de categoría pleno. No
cumple con la mayoría de los códigos de seguridad para la instalación en el área por encima
del cielo raso porque libera un gas venenoso cuando se quema. Verifique el código de
edificación e incendios local para saber las locaciones donde puede utilizarse el cable
categoría PVC.
65
3.3
Tipos de Medios
3.3.2
Cable de par trenzado
El par trenzado es un tipo de cableado que se utiliza para las comunicaciones telefónicas y la mayoría
de las redes Ethernet modernas. Las Figuras y muestran dos ejemplos de cables de par trenzado.
Un par de alambres forman un circuito que puede transmitir datos. Los pares se trenzan para evitar
crosstalk, el ruido generado por pares adyacentes. Pares de alambres de cobre encapsulados en
aislación plástica codificada por colores se trenzan juntos. Todos los pares trenzados son protegidos
entonces dentro de una vaina exterior.
Hay dos tipos básicos:
1. Par trenzado blindado (STP) (Ver Figura )
2. Par trenzado sin blindaje (UTP) (Ver Figura )
UTP
El cable par trenzado sin blindaje (UTP) se utiliza en una variedad de redes. Tiene dos o cuatro pares
de alambres. Este tipo de cable se basa únicamente en el efecto de cancelación producido por los
pares de alambre trenzado para limitar la degradación de la señal ocasionada por la interferencia
electromagnética (EMI) y la interferencia de radiofrecuencia (RFI). UTP es el cableado más
comúnmente utilizado en redes Ethernet.
66
STP
El cable par trenzado blindado (STP) combina las técnicas de cancelación y trenzado de los cables con
blindaje. Cada par de alambres es envuelto en una lámina metálica para resguardar más los alambres
del ruido. Los cuatro pares de alambres son luego envueltos en una red o lámina metálica que los cubre
a todos. El STP reduce el ruido eléctrico, tanto dentro del cable, llamado crosstalk, como desde afuera
del cable, llamado EMI y RFI.
Aunque STP evita más interferencia que UTP, es más caro y difícil de instalar. Además, el blindaje
metálico debe estar conectado a tierra en ambos extremos. Si está mal conectado a tierra, el blindaje
actúa como antena recogiendo señales indeseadas. STP se utiliza principalmente en Europa.
La mayoría de las redes de hoy se arman utilizando cable UTP. El conector de un extremo del cable se
denomina conector RJ-45. Una vez dispuestos los alambres en el orden correcto del código de colores,
termínelo con un conector RJ-45. Una herramienta de crimpeado se usa para terminar un cable UTP en
un conector RJ-45. La Figura muestra un ejemplo de herramienta de crimpeado que se utiliza para
asegurar los conectores RJ-45 a un cable UTP.
El UTP viene en varias categorías según la cantidad de alambres y de trenzados en ellos como muestra
la Figura .
67
Categoría 3 es el cableado utilizado para conexiones telefónicas. Tiene cuatro pares de alambres y una
velocidad de datos máxima de hasta 16 Mbps.
Categoría 5 y 5e son actualmente los cables Ethernet más comúnmente utilizados. Tienen cuatro pares
de alambres con una velocidad de datos máxima de hasta 100 Mbps. Category 5e tiene más trenzados
por metro que el cableado Categoría 5. Estos trenzados extra evitan aún más la interferencia de fuentes
exteriores y de los otros alambres dentro del cable.
Categoría 6 es la categoría más moderna y ha sido ratificada por organizaciones de la industria del
cableado. Categoría 6 es similar a Categoría 5/5e excepto en que un divisor plástico para evitar el
crosstalk separa los pares de alambre. Además, los pares tienen más trenzados que el cable Categoría
5e.
3.3
Tipos de Medios
3.3.3
Cable de fibra óptica
El cable de fibra óptica es un medio de networking con capacidad para conducir transmisiones de luz
modulada. Modular luz es manipularla de modo tal que viaje de modo tal que transmita datos. La fibra
óptica hace referencia a un cableado que tiene un núcleo de fibras de vidrio o plástico (en lugar de
cobre), a través del cual los impulsos de luz transportan señales. La Figura muestra un ejemplo de la
totalidad de los diversos componentes que componen un cable de fibra óptica. El cable de fibra óptica
no transporta impulsos eléctricos, como sí lo hacen otras formas de medios de networking que utilizan
alambre de cobre. En cambio, las señales que representan datos son convertidas en rayos de luz. La
fibra tiene muchas ventajas sobre el cobre en términos de ancho de banda de transmisión e integridad
68
de la señal a lo largo de la distancia. No obstante, es más difícil trabajar con ella y es más cara que el
cableado de cobre. Los conectores son caros, como lo es la mano de obra para terminar los extremos
de los cables. La Figura muestra un ejemplo de cable de fibra óptica con los extremos terminados.
La Figura
muestra las ventajas y desventajas de la fibra óptica.
3.3
Tipos de Medios
3.3.4
Inalámbricos
Una red inalámbrica es un método alternativo de conectar una LAN. Estas redes usan ondas
electromagnéticas como radiofrecuencia (RF), láser, infrarrojo (IR), y satélite/microondas para
transportar señales de una computadora a otra sin una conexión de cable permanente. Puesto que no
es necesario un medio físico permanente para esta red, esta tecnología es una forma muy versátil de
construir una red.
Una aplicación común de la comunicación de datos inalámbrica es el uso móvil. Algunos ejemplos del
uso móvil incluyen conmutadores, aviones, satélites, sondas espaciales remotas, transbordadores
espaciales y estaciones espaciales.
En la parte central de la comunicación inalámbrica están los dispositivos llamados transmisores y
receptores. La fuente interactúa con el transmisor que convierte los datos en ondas electromagnéticas
(EM) que luego son recibidas por el receptor. El receptor luego convierte estas ondas
electromagnéticas nuevamente en datos hacia el destino. Para la comunicación en dos sentidos, cada
dispositivo requiere un transmisor y un receptor. Muchos de los fabricantes de dispositivos de
69
networking arman el transmisor y el receptor como una unidad llamada transceptor o placa de red
inalámbrica. Todos los dispositivos de una LAN inalámbrica (WLAN) deben tener instalada la placa de
red inalámbrica apropiada.
Las dos tecnologías inalámbricas más comunes utilizadas para el networking son IR y RF. La
tecnología IR tiene sus debilidades. Las estaciones de trabajo y los dispositivos digitales deben hallarse
en la línea de visión del transmisor para poder operar. Una red basada en infrarrojo sirve a entornos
donde todos los dispositivos digitales que requieren conectividad a la red se encuentran en una única
habitación. La tecnología de networking IR puede instalarse rápidamente, pero las señales de datos
pueden ser debilitadas u obstruidas por la gente que camina por la habitación o la humedad del aire.
Existen, no obstante, nuevas tecnologías IR en desarrollo que pueden funcionar fuera de la vista.
La tecnología RF permite a los dispositivos encontrarse en diferentes habitaciones o incluso edificios.
El alcance limitado de las señales de radio aún restringirá el uso de este tipo de red. La tecnología RF
puede ser en una única o en múltiples frecuencias. Una radiofrecuencia única está sujeta a
interferencia del exterior y a obstrucciones geográficas. Además, otros pueden monitorear fácilmente
una única frecuencia, lo cual vuelve inseguras las transmisiones de datos. El espectro expandido evita
el problema de la transmisión de datos insegura utilizando múltiples frecuencias para incrementar la
inmunidad al ruido y para dificultar que extraños intercepten las transmisiones de datos.
Existen dos enfoques utilizados actualmente para implementar el espectro expandido para
transmisiones WLAN:
·
·
Espectro Expandido de Salto de Frecuencia (FHSS)
Espectro Expandido de Secuencia Directa (DSSS)
Los detalles técnicos acerca de cómo funcionan estas tecnologías están más allá del alcance de este
libro. La Figura ilustra cómo funcionan las tecnologías de networking inalámbrico.
3.4
Dispositivos
3.4.1
Hubs y repetidores
Muchos tipos de dispositivos se conectan para componer una LAN. Éstos se denominan componentes
de hardware de la LAN. Esta sección tratará algunos de los componentes de hardware comunes que se
utilizan en un entorno LAN. Dispositivos LAN comunes incluyen repetidores, hubs, bridges, switches, y
routers. Las Figuras y muestran ejemplos de hubs y repetidores.
70
Un repetidor recibe la señal, la regenera, y la hace continuar. Los repetidores se utilizan principalmente
en los bordes de las redes para extender el cable para poder agregar más estaciones de trabajo.
Los hubs son realmente repetidores multi-puerto. La Figura ilustra el aspecto que tendría un Hub
Cisco típico. En muchos casos, la diferencia entre los dos dispositivos es la cantidad de puertos que
cada uno proporciona. Mientras que un repetidor común tiene sólo dos puertos, un hub en general tiene
de cuatro a veinte puertos. La Figura muestra un ejemplo de dónde podría colocarse un repetidor
entre dos objetos para extender la fuerza de la señal del cable. Además, los hubs son utilizados más
comúnmente en redes Ethernet 10BASE-T o 100BASE-T, aunque existen otras arquitecturas de red
que también los usan.
Usar un hub cambia la topología de la red de un bus lineal, donde cada dispositivo se conecta
directamente al cable, a una estrella. Con los hubs, los datos que llegan a través de los cables a un
puerto de hub se repiten eléctricamente en todos los otros puertos conectados a la misma LAN
Ethernet, excepto por el puerto en el cual se recibieron los datos.
Los hubs vienen en tres tipos básicos:
1. Pasivo Un hub pasivo sirve a un punto de conexión físico únicamente. No manipula ni visualiza
el tráfico que lo cruza. No impulsa ni despeja la señal. Un hub pasivo se utiliza sólo para
compartir el medio físico. Como tal, el hub pasivo no necesita energía eléctrica.
2. Activo Un hub activo debe conectarse a la salida de electricidad porque necesita energía para
amplificar la señal entrante antes de pasarla nuevamente hacia afuera hacia los otros puertos.
71
3. Inteligente Los hubs inteligentes a veces se llaman "smart hubs". Estos dispositivos funcionan
básicamente como hubs activos pero también incluyen un chip microprocesador y capacidades
de diagnóstico. Son más caros que los hubs activos pero son útiles en situaciones donde hay
que resolver problemas.
Finalmente, es importante recordar estos puntos acerca de los hubs:
·
·
·
Todos los dispositivos que están conectados a un hub escuchan todo el tráfico. Por lo tanto, los
hubs mantienen un único dominio de colisión. Una colisión se describe como una situación
donde dos estaciones finales envían datos a través del cable de la red al mismo tiempo.
A veces los hubs son llamados concentradores. Esto se debe a que sirven como punto de
conexión central para una LAN Ethernet.
Los hubs operan en la capa física del modelo OSI.
3.4
Dispositivos
3.4.2
Bridges y switches
Hay ocasiones en que es necesario dividir una LAN grande en segmentos más pequeños y fáciles de
administrar. Esto disminuye la cantidad de tráfico en una única LAN y puede extender el área
geográfica más allá de lo que una única LAN puede soportar. Los dispositivos que se utilizan para
conectar segmentos de red incluyen bridges, switches, routers y gateways. Los switches y bridges
operan en la capa de enlace de datos del modelo OSI. La Figura muestra un bridge y un switch. La
función del bridge es tomar decisiones inteligentes acerca de si pasar o no las señales al siguiente
segmento de una red. La Figura muestra de qué manera los bridges y switches pueden utilizarse
para dividir una red en segmentos separados. La Figura muestra un ejemplo de bridge inalámbrico
Cisco. Cuando un bridge ve un frame en la red, mira la dirección MAC de destino y la compara con la
tabla de envío para determinar si filtrar, hacer flooding de o copiar el frame en otro segmento. Este
proceso de decisión tiene lugar de la siguiente manera:
·
·
·
Si el dispositivo de destino está en el mismo segmento que el frame, el bridge bloquea al frame
para que no pase a otros segmentos. Este proceso se denomina filtrado.
Si el dispositivo de destino está en un segmento diferente, el bridge envía el frame al segmento
apropiado.
Si la dirección de destino es desconocida para el bridge, el bridge envía el frame a todos los
segmentos excepto aquél en el cual se lo recibió. Este proceso se conoce como flooding.
72
Si se lo coloca estratégicamente, un bridge puede mejorar mucho el desempeño de la red. Un switch se
describe a veces como bridge multi-puerto. Mientras que un bridge común puede tener sólo dos
puertos, que vinculan a dos segmentos de red, el switch puede tener múltiples puertos dependiendo de
cuántos segmentos de red han de ser vinculados. La Figura muestra cómo un switch puede utilizarse
para segmentar una red así como ser utilizado como dispositivo central para que un sistema se conecte
a la red. La Figura muestra un switch Cisco típico. Como los bridges, los switches aprenden cierta
información acerca de los paquetes de datos que reciben desde diversas computadoras de la red. Usan
esta información para armar tablas de envío para determinar el destino de los datos que son enviadas
por una computadora a otra en la red.
Aunque existen algunas similitudes entre los dos, un switch es un dispositivo más sofisticado que un
bridge. Un switch tiene muchos puertos con muchos segmentos de red conectados a ellos. Un switch
elige el puerto al cual el dispositivo de destino o estación de trabajo están conectados. Los switches
Ethernet se están volviendo soluciones de conectividad populares porque, como los bridges, mejoran el
desempeño de la red, o la velocidad y el ancho de banda. Los switches ayudan más a segmentar una
red y reducen la congestión del tráfico de red limitando cada puerto a su propio dominio de colisión. Las
colisiones en las redes tienen lugar cuando los paquetes se envían por la red. Esto usualmente ocurre
cuando hay más de un dispositivo intentando enviar un paquete al mismo tiempo. Estas colisiones
resultan en mensajes corruptos y un uso excesivo del ancho de banda. Por esta razón, es importante
que todas las redes implementen dispositivos para reducir estas colisiones. Se considera un dominio
porque sólo los dispositivos que están en el dominio que están transmitiendo paquetes pueden tener
73
colisiones. No interferirán con ningún otro dispositivo que esté transmitiendo en otro segmento de la
red. Un switch que sea capaz de hacer a cada puerto su propio dominio de colisión puede conservar
recursos en la red limitando sólo el dispositivo conectado a ese puerto a su propio dominio de colisión.
Esto reducirá significativamente la interferencia para ese dispositivo así como la interferencia
proveniente de otros dispositivos transmitiendo paquetes en otros segmentos de la red. Aunque un
switch puede segmentar una red en múltiples dominios de colisión, no puede segmentar la red en
dominios de broadcasts separados. Los dominios de broadcast ocurren cuando una red es segmentada
en múltiples partes, y no se permite a ningún tráfico de broadcast que cruce los segmentos.
3.4
Dispositivos
3.4.3
Routers
El router debe tomar decisiones inteligentes sobre cómo enviar datos de un segmento a otro. La Figura
muestra un ejemplo de router. Por ejemplo, desde una computadora en el segmento de red 1, a una
computadora en el segmento de red 3. La Figura demuestra cómo pueden implementarse los routers para
segmentar más una red.
Los routers son los dispositivos de internetworking más sofisticados que hemos tratado hasta ahora y operan
en la capa de Red del modelo OSI. Son más lentos que los bridges y switches pero toman decisiones
"inteligentes" acerca de cómo enrutar paquetes recibidos en un puerto hacia una red en otro puerto. Los
routers, como los switches, son capaces de segmentar la red. Los routers son capaces de segmentar una
red en múltiples dominios de colisión así como en múltiples dominios de broadcast. Un dominio de broadcast
es un área lógica en una red de computadoras donde cualquier computadora conectada a la red informática
puede transmitir directamente a cualquier otra del dominio sin tener que atravesar un dispositivo de
enrutamiento. Más específicamente es un área de la red informática compuesta por todas las computadoras
y dispositivos de networking que pueden ser alcanzados enviando un frame a la capa de enlace de datos.
Cada puerto al cual está conectado un segmento de red se describe como interfaz de router. Los routers
pueden ser computadoras con software de red especial instalado en ellas o pueden ser dispositivos armados
por fabricantes de equipamiento de red. Los routers contienen tablas de direcciones de red junto con rutas
de destino óptimas a otras redes. La Figura muestra routers Cisco.
74
Resumen
Este capítulo trató los componentes físicos de una red. Algunos de los conceptos importantes a
retener de este capítulo incluyen a los siguientes:
·
·
·
·
Consideraciones importantes al seleccionar una Placa de Interfaz de Red (NIC) son el
tipo de red, el tipo de medio a utilizar, y el tipo de bus del sistema.
En una LAN basada en TCP/IP, las PCs utilizan direcciones del Protocolo Internet (IP)
para identificarse entre sí. Estas direcciones pueden asignarse manualmente o con un
servidor de Protocolo de Configuración Dinámica del Host (DHCP).
La topología física se refiere a la disposición de los dispositivos y los medios en una red.
La topología lógica se refiere a la ruta por la que viajan las señales en la topología física.
Los medios de networking se definen como el medio por el cual las señales (datos) se
envían de una computadora a otra. Es importante comprender las ventajas y desventajas
del cobre (incluyendo cables coaxial y de par trenzado), la fibra óptica y las conexiones
inalámbricas.
El siguiente capítulo detalla el modelo de networking TCP/IP. TCP/IP es la suite de protocolos
predominante en networking hoy.
4. Networking de TCP/IP
Descripción general
La Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa (DARPA) de
EE.UU. produjo los diseños y las redes experimentales que evolucionaron hasta convertirse en la
Internet pública. El modelo de red del Protocolo de Control de Transmisión/Protocolo Internet
(TCP/IP) que fue desarrollada se basa en el modelo de referencia Interconexión de Sistemas
Abiertos (OSI). Es ahora la suite de protocolos predominante usada en networking.
En este capítulo el alumno aprenderá cómo las capas de TCP/IP funcionan juntas para
comunicarse en una red, cómo se asignan las direcciones, y cómo el nombre de una
computadora se traduce a una dirección IP y viceversa. Además, se tratarán las funciones
llevadas a cabo por cada uno de los protocolos importantes que componen la suite de protocolos
TCP/IP.
4.1
Historia de TCP/IP
4.1.1
Orígenes y crecimiento de TCP/IP
Inventos que comienzan en un contexto gubernamental o militar a menudo terminan teniendo un gran
valor en la vida civil. Por ejemplo, la Segunda Guerra Mundial estimuló el desarrollo de grandes
sistemas informáticos. De manera similar, las investigaciones militares patrocinadas por la Agencia de
Proyectos de Investigación Avanzada del Departamento de Defensa (DARPA) de EE.UU. produjo los
diseños y redes experimentales que evolucionaron hasta convertirse en la Internet pública. DARPA
también aceleró la expansión del Protocolo de Control de Transmisión/Protocolo Internet (TCP/IP)
75
incluyéndolo en distribuciones del sistema operativo UNIX.
En el competitivo mundo de los negocios, las compañías privadas protegen las tecnologías que
desarrollan usando patentes y secretos de marca para obtener una ventaja en el mercado. Un sistema
de red se denomina "cerrado" cuando una compañía lo posee y controla. En contraste, la suite de
protocolos TCP/IP es un sistema abierto. Esto significa que las especificaciones para los protocolos
Internet se hicieron públicamente disponibles para que cualquier compañía pudiera construir hardware
o software de computadoras que los implementara. Esta estrategia permite a los clientes comprar
productos de red de diferentes compañías con la seguridad de que los productos funcionarán juntos o
interoperarán.
Basándose en los estándares abiertos de TCP/IP, Internet ha sido enormemente exitosa. A principios
de los '80, Internet conectaba sólo unos pocos cientos de computadoras. Para el año 1997, conectaba
a más de 16 millones de computadoras, y se había duplicado en tamaño aproximadamente cada 10
meses. Los matemáticos llaman a tal crecimiento exponencial. Aunque Internet no puede continuar
creciendo indefinidamente a esta velocidad, nadie puede predecir cuán grande puede y realmente
llegará a ser. Hoy, las corporaciones e individuos son cada vez más dependientes de Internet para
conducir negocios y las actividades de la vida diaria. La Figura señala la evolución del crecimiento de
Internet.
Una mirada a la historia del teléfono y la televisión puede proporcionar alguna idea de la velocidad a la
cual ha crecido la tecnología TCP/IP. La Figura muestra un gráfico que compara cuán rápido ha
crecido Internet en relación a otras formas de tecnología. Le tomó más de 38 años a la radio lograr lo
que se llama un servicio universal. Servicio universal significa que casi todas las casas del mundo
tecnológicamente avanzado usan y dependen del acceso a la radio. La televisión se toma ahora por
sentada como fuente de noticias y entretenimiento. Los primeros televisores aparecieron en los livings a
fines de los '40. No obstante, llevó cincuenta años lograr el servicio universal, donde la mayoría de los
hogares tienen uno o más televisores. En comparación, Internet ha logrado la mayor parte de su
crecimiento explosivo dentro de los pasados diez años y está ahora comenzando a absorber elementos
de los sistemas de teléfonos y televisión. Ninguna otra tecnología puede compararse con este logro. La
Figura ilustra algunos gráficos que muestran cuán rápidamente los usuarios, el comercio electrónico
y el contenido de la web han crecido. Estos gráficos también muestran los dramáticos ahorros de
costos que Internet ha proporcionado para diversas compañías.
76
4.1
Historia de TCP/IP
4.1.2
El modelo de red TCP/IP
El modelo de red TCP/IP se parece mucho al modelo de referencia OSI y es la suite de protocolos
predominante usada en networking hoy. El modelo de red TCP/IP contiene cuatro capas, a diferencia
del modelo OSI, que contiene siete capas. Estas cuatro capas son la capa de aplicación en la parte
superior, seguida de la capa de transporte, la capa de Internet, y finalmente la capa de interfaz de red.
La Figura ilustra cómo se mapean las cuatro capas del modelo TCP/IP con el modelo OSI.
Aplicación
La capa de aplicación del modelo TCP/IP define muchas de las aplicaciones que se usan en redes de
todo el mundo. La capa de aplicación NO es la aplicación en sí que está haciendo la comunicación. Es
una capa de servicio que proporciona estos servicios. La capa de aplicación es responsable de muchas
tareas. Una de ellas incluye determinar las reglas de sintaxis de protocolo y datos a nivel de la
aplicación. Algunos de estos protocolos que funcionan a este nivel son el Protocolo de Transferencia de
Archivos (FTP) y el Protocolo de Transferencia de Archivos Trivial (TFTP) y aplicaciones basadas en
TCP/IP usadas para la transferencia de archivos. Aplicaciones de e-mail basadas en TCP/IP comunes
son el Simple Mail Transfer Protocol (SMTP), el Internet Message Access Protocol (IMAP), y el Post
Office Protocol versión 3 (POP3). Telnet, que se usa para administración remota, usa también la pila del
protocolo TCP/IP. El Protocolo de Administración de Red Simple (SNMP) también está definido en la
pila de protocolos TCP/IP. Otras tareas llevadas a cabo son asegurar el acuerdo en ambos extremos
acerca de procedimientos de recuperación de errores, integridad de datos, y privacidad. El control de la
sesión es otra función importante de la cual es responsable la capa de aplicación. El control de la
77
sesión incluye funciones tales como asegurarse de que la otra parte se identifique y pueda alcanzarse y
asegurar que existen los recursos necesarios para la comunicación. Por ejemplo, ¿hay un módem en la
computadora del emisor?
Transporte
La capa de transporte del modelo TCP/IP define muchas de las mismas funciones que la capa de
transporte del modelo OSI: No obstante, a diferencia de ésta, que define protocolos como Novell SPX,
la capa de transporte de TCP/IP define solamente el Protocolo de Control de Transmisión (TCP) y el
Protocolo de Datagrama del Usuario (UDP). Posteriormente en este capítulo, se tratarán en más detalle
las funciones de TCP y UDP. Brevemente, el propósito de los protocolos de la capa de transporte es
proporcionar confiabilidad y control de flujo. La confiabilidad se logra mediante una secuencia de
acuses de recibo que garantizan la entrega de cada paquete. El control de flujo se logra mediante el
uso de una técnica llamada windowing, que permite a los hosts comunicantes negociar qué cantidad de
datos se transmitirán durante un periodo determinado.
TCP o UDP se usan en la capa de transporte en networking TCP/IP, dependiendo del entorno de red
particular y de qué tipo de datos se están transmitiendo. Las especificaciones de una conexión TCP y
de una conexión UDP se tratarán más adelante en este capítulo.
Números de Puerto
Tanto TCP como UDP usan números de puerto para pasar datos a las capas superiores. Los números
de puerto ayudan a definir y rastrear todos los diferentes tipos de conversaciones que están teniendo
lugar en toda la red. Cada protocolo de la capa de aplicación, incluyendo FTP, Telnet, SMTP, DNS,
TFTP, SNMP, y el Protocolo de Información de Enrutamiento (RIP), tiene un número de puerto
específico que lo identifica y separa de otro protocolo. La Internet Assigned Numbers Authority (IANA)
define estos bien conocidos números de puerto. Algunos de los usados más comúnmente son FTP - 21,
Telnet - 23, SMTP - 25, DNS - 53, TFTP - 69, SNMP - 161, y RIP - 520. La Figura enumera algunos
de los más importantes puertos preasignados, los protocolos usados, y las aplicaciones que están
diseñadas para usar los números de puerto específicos.
Un administrador del sistema deberá familiarizarse con el sistema de números de puerto y deberá
monitorear de cerca los tipos de flujo de tráfico que entran y salen de la red. El administrador del
sistema tiene la capacidad para especificar qué tipos de tráfico se permitirán en una red permitiendo o
denegando el tráfico de Internet basado en estos números de puerto. Este proceso de filtrado basado
en números de puerto usualmente se logra con routers o dispositivos firewall. Existen riesgos asociados
a permitir tráfico entrante a una red basándose en el número de puerto. Muchos hackers usan scanners
de puerto para buscar puertos abiertos en redes para obtener un acceso no autorizado.
78
Capa de Internet
La capa de Internet del modelo TCP/IP define el direccionamiento y la selección de rutas. Ésta es la
misma función que la de la capa de red del modelo OSI. Los routers usan protocolos de la capa de
Internet para identificar un camino apropiado para los paquetes de datos a medida que viajan de red a
red. Algunos de los protocolos definidos en esta capa son IP, Internet Control Message Protocol
(ICMP), Protocolo de Resolución de Direcciones (ARP), y Protocolo de Resolución de Direcciones
Inverso (RARP). IP proporciona a los routers la capacidad, o direccionamiento, de mover datos hacia el
destino deseado. El ICMP proporciona capacidades de control y mensajería, que se usan cuando hay
algún problema en la red. ICMP se usa para enviar un mensaje de vuelta al host, informándole que el
host de destino era inalcanzable. La Figura muestra algunas de las responsabilidades de la capa de
Internet. ICMP es también la base para los comandos ping y traceroute. ARP se usa para buscar la
dirección MAC de un host, switch, o router, dada su dirección IP. RARP es muy similar a ARP. RARP
se usa cuando la dirección MAC de un host es conocida, pero la dirección IP no lo es. La Figura
esquematiza algunas de las más importantes utilidades TCP/IP disponibles.
Capa de Interfaz de Red
La capa de interfaz de red del modelo TCP/IP se mapea con las capas de enlace de datos y física del
modelo OSI. Esta capa define funciones específicas de TCP/IP relacionadas con la preparación de los
datos para su transmisión sobre el medio físico, incluyendo el direccionamiento. La capa de interfaz de
red también especifica qué tipos de medios pueden usarse para la transmisión de datos.
4.1
Historia de TCP/IP
4.1.3
TCP/IP y los sistemas operativos de red
En los '80 varias compañías diseñaron y vendieron sistemas operativos de red (NOSs) que permitían a
los usuarios de LAN compartir caros dispositivos e información. En general, estos productos
empleaban un modelo cliente/servidor donde las computadoras cliente hacían solicitudes de
información o del uso de dispositivos, y las computadoras servidor respondían a las computadoras
cliente. Compañías como Novell, Banyan, Apple, IBM, y Microsoft competían por clientes de red.
Para transportar las solicitudes y respuestas entre clientes y servidores, los fabricantes de NOS
diseñaron sus propias reglas o protocolos especiales. Novell llamó a sus protocolos IPX/SPX, Banyan
llamó a sus protocolos VINES, y Apple produjo AppleTalk, mientras que IBM y Microsoft usaban
NetBIOS. Cada una de estas soluciones era cerrada, o propietaria, lo cual significaba que era
propiedad de y controlada por una única compañía. Los clientes no podían combinar sistemas de
diferentes compañías en sus redes porque usaban diferentes lenguajes (o protocolos) que eran
incompatibles entre sí.
Hoy, todos los fabricantes de NOS han adoptado la suite de protocolos TCP/IP para transportar datos
entre sistemas clientes y servidores. La Figura representa cómo el protocolo TCP/IP se usa para
79
administrar el intercambio de comunicación entre dos sistemas informáticos. Aunque los más antiguos
protocolos propietarios siguen en uso, TCP/IP es el estándar implementado por todos los fabricantes
de NOS. Comprender los componentes de los protocolos TCP/IP es necesario para comprender la
comunicación en un entorno NOS.
4.2
Direccionamiento IP
4.2.1 Direccionamiento IPv4
Para que cualesquiera dos sistemas se comuniquen, deben poder identificarse y localizarse
mutuamente. La Figura ilustra cómo pueden usarse las direcciones IP para localizar otros sistemas
informáticos cuando los datos deben viajar y ser enviados por otro hardware de red como switches y
routers. En la vida cotidiana, los nombres o números (como los números telefónicos) se usan a menudo
como identificadores únicos. De manera similar, a cada computadora de una red TCP/IP debe dársele
al menos un identificador único, o dirección. Esta dirección permite a una computadora localizar otra en
una red. La Figura proporciona una demostración de cómo se asignan números específicos a
computadoras para que se localicen y distingan entre sí.
Una computadora puede conectarse a más de una red. Si éste es el caso, entonces debe darse más de
una dirección al sistema, cada una identificando su conexión a una red diferente. Hablando
estrictamente, no puede decirse que un dispositivo tenga una dirección sino que cada uno de sus
puntos de conexión (o interfaces) a una red tiene una dirección que permite a otras computadoras
localizarla en esa red en particular.
80
Configuraciones TCP/IP en Linux
En general, en la mayor parte de las redes, las configuraciones TCP/IP se configurarán
automáticamente mediante el servidor DCHP. Aún es importante saber cómo configurar estáticamente
TCP/IP con propósitos de resolución de problemas. Por ejemplo, si el sistema operativo Linux no
pudiera recoger la dirección IP mediante dhcp. Hay dos formas de configurar una IP estática en Linux,
el uso de una línea de comandos o configuración del archivo network. Algunas distribuciones, como
Fedora o Red Hat tienen una herramienta GUI que puede usarse para configurar TCP/IP estáticamente.
Configuración de la Línea de Comandos
El siguiente método de configuración funcionará para la mayoría de las distribuciones Linux
importantes. El cambio es temporal porque los comandos no cambian el archivo network que se lee
durante el arranque. Si el archivo network real no se cambia, las configuraciones se eliminarán cuando
se reinicie el sistema operativo.
Para configurar la dirección IP manualmente en la interfaz de línea de comandos, emita los siguientes
dos comandos:
NombreComputadora:~# ifconfig eth0 <dirección IP> netmask <dirección>
NombreComputadora:~# route add default gw <dirección de gateway>
El primer comando le indica a la computadora que configure el adaptador Ethernet 0 con una dirección
ip y máscara de red específicas. El segundo comando configura el gateway del sistema. Nuevamente,
esta configuración durará hasta que el dispositivo se apague y vuelva a encender o la computadora se
reinicie.
Edición de Archivos Network
Cada distribución de Linux guarda su archivo de configuración de red en una ubicación diferente. El
sistema guardará la configuración hasta que el archivo se cambie nuevamente. Los cambios
permanecerán después de que el sistema se reinicie. La tabla de la Figura muestra algunas de las
ubicaciones del archivo network en algunas de las distribuciones Linux más populares.
4.2
Direccionamiento IP
4.2.2
Descripción general del direccionamiento IPv4
TCP/IP está diseñado como un conjunto de protocolos para internetworking. IP tiene el trabajo de
enviar paquetes desde la red en la cual se originan a la red de destino. Este esquema de
direccionamiento, por lo tanto, debe incluir un identificador para las redes tanto de origen como de
destino.
Utilizando el identificador de red, IP puede entregar un paquete a la red de destino. Una vez que el
paquete llega a un router conectado a la red de destino, IP debe localizar entonces el punto en
particular donde la computadora de destino está conectada a esa red. La Figura muestra cómo las
direcciones representan la ruta a viajar a través de las diversas conexiones a los medios. Esto funciona
de manera muy similar al sistema postal. Cuando se enruta el correo, primero debe entregarse a la
estafeta postal de la ciudad de destino usando el código postal, y después dicha estafeta postal debe
ubicar el destino final en esa ciudad usando la dirección de calle. Éste es un proceso de dos pasos.
81
De igual forma, cada dirección IP tiene dos partes. Una parte identifica a la red a la cual el sistema está
conectado, y una segunda parte identifica ese sistema en particular en la red. Esta clase de dirección
se denomina dirección jerárquica, porque contiene diferentes niveles y a causa del hecho de que la
dirección puede dividirse en dos partes, con cada una de las partes usada como identificador. Otro
ejemplo de dirección jerárquica es un número telefónico. Cada parte del número telefónico es un
identificador de la ubicación del teléfono. Hay un código de "país" que identifica en qué país se
encuentra el teléfono. El código de área representa en qué ciudad dentro del país está ubicado el
teléfono y las otras partes del número dan más definiciones respecto a dónde está ubicado el teléfono.
Una dirección IP combina estos dos identificadores en un único número. Este número debe ser un
número único, porque las direcciones duplicadas no se permiten. La primera parte, llamada la "parte de
red", indica en qué red está ubicado el sistema. La segunda parte, llamada la "parte del host", indica de
qué máquina en particular se trata en esa red. La Figura ilustra este sistema de direccionamiento
jerárquico y cómo se lo utiliza para identificar sistemas informáticos a través de la red.
Dentro de una computadora, una dirección IP se almacena como una secuencia de 32 bits de unos y
ceros. La Figura muestra un ejemplo de uno de estos números de 32 bits. Para hacer la dirección IP
más fácil de usar, en general se la escribe en forma de cuatro números decimales separados por
puntos. Por ejemplo, una dirección IP de una computadora es 192.168.1.2. Otra computadora podría
tener la dirección 128.10.2.1. Esta forma de escribir la dirección se denomina notación decimal de
punto. En esta notación, cada dirección IP se escribe en forma de cuatro partes separadas por puntos.
Cada parte de la dirección se denomina "octeto" porque está compuesta por ocho caracteres binarios.
Por ejemplo, la dirección IP 192.168.1.8 en notación binaria sería
11000000.10101000.00000001.00001000.
82
¿Cómo determina un usuario qué porción de la dirección identifica a la red y qué porción identifica al
host? La respuesta comienza con los diseñadores de Internet, que pensaron que las redes se armarían
en diferentes tamaños, dependiendo de la cantidad de computadoras (hosts) que contuvieran. Se
pensaba que habría una cantidad relativamente pequeña de redes grandes, posiblemente con millones
de computadoras. Los diseñadores previeron una cantidad más grandes de redes de tamaño mediano,
tal vez con miles de computadoras cada una. Finalmente, vieron una gran cantidad de redes con varios
cientos de máquinas o menos. Así, los diseñadores dividieron las direcciones IP disponibles en clases
para definir las redes grandes (Clase A), medianas (Clase B) y pequeñas (Clase C) como muestra la
Figura . Conocer la clase de una dirección IP es el primer paso en determinar qué parte de la red
identifica a la red y qué parte identifica al host. Las Figuras y ilustran cómo se clasifican los rangos
de direcciones IP.
83
4.2
Direccionamiento IP
4.2.3
Direcciones Clase A
En una dirección Clase A, el primer número (octeto) es la porción de red, y los últimos tres números
son la porción del host. El formato es Red.Host.Host.Host, o R.H.H.H. Por ejemplo, en la dirección
56.1.2.3, el primer octeto (56) identifica a la red, y los últimos tres octetos (1.2.3) identifican al host en
esa red. La dirección 56.1.2.4 identifica a un host diferente (1.2.4) en la misma red (56). La dirección
57.1.2.3 identifica al host 1.2.3 en la red 57.
A causa de la forma en que la dirección se almacena en binario en la computadora, el primer octeto
siempre recaerá entre 1 y 127. Si el primer octeto de una dirección IP recae en el rango 1-127, es una
dirección Clase A. La Figura ilustra un ejemplo de una dirección Clase A que muestra las porciones
de Host y Red de la dirección. No obstante, sólo 1-126 es válido para las redes Clase A porque la red
127.0.0.0 está reservada. La dirección IP 127.0.0.1 se denomina dirección "loopback local", y se usa
para probar la NIC del sistema local.
4.2
Direccionamiento IP
4.2.4
Direcciones Clase B
Una dirección IP Clase B divide la porción de red de la porción de host entre el segundo y el tercer
octeto. El formato es R.R.H.H. La dirección 165.5.6.7 representa a la red 165.5 y al host 6.7.
A causa de la forma en que las direcciones Clase B se almacenan en binario, el primer octeto siempre
recae en el rango 128-191. Si el primer octeto de una dirección IP es mayor que 127 pero menor que
192, es una dirección Clase B. La Figura ilustra un ejemplo de una dirección Clase B que muestra
las porciones de Host y Red de la dirección.
84
4.2
Direccionamiento IP
4.2.5
Direcciones Clase C
Una dirección IP Clase C divide la porción de la red de la porción del host entre el tercero y cuarto
octeto. El formato es R.R.R.H. La dirección 192.8.9.10 representa a la red 192.8.9 y el host 10.
A causa de la forma en que las direcciones Clase C se almacenan en binario, el primer octeto siempre
recae en el rango 192-223. Si el primer octeto de la dirección IP es mayor que 191 pero menor que
224, es una dirección Clase C. La Figura ilustra un ejemplo de dirección Clase C mostrando las
porciones de Host y Red de la dirección.
4.2
Direccionamiento IP
4.2.6
Direcciones Clases D y E
Las direcciones Clase D y Clase E se usan con propósitos especiales. La Clase D se reserva para una
técnica llamada multicast, y las direcciones Clase E se usan con propósitos experimentales. Las
organizaciones comerciales usan las direcciones clases A, B, o C para identificar redes y hosts. La
Figura muestra un ejemplo de arquitectura de dirección clase D.
4.2
Direccionamiento IP
4.2.7
La crisis de las direcciones IPv4
Los diseñadores de la primera Internet no podrían haber previsto el crecimiento explosivo que ha
experimentado Internet. Naturalmente creyeron que la cantidad de direcciones requeridas para
identificar redes y sistemas host interconectados sería suficiente para muchos años en el futuro.
Asignaron direcciones a compañías y organizaciones a medida que se solicitaban. A mediados de los
'80, no obstante, se hizo evidente que a menos que se tomara alguna acción, la cantidad de direcciones
sin usar disminuiría rápidamente e Internet enfrentaría una crisis como resultado de su propio éxito.
La cantidad total de direcciones disponibles para el uso se denomina espacio de direcciones.
Pensemos en qué podría ocurrir si las compañías telefónicas usaran todos los números telefónicos
disponibles (es decir, su espacio de direcciones) para identificar teléfonos, faxes y otros dispositivos
que permiten la comunicación mediante el sistema telefónico. No podrían conectarse nuevos teléfonos
al sistema, y eso detendría su expansión. Internet realmente enfrentó esta situación, cuando parecía
85
que el crecimiento se limitaría o incluso se detendría porque el espacio de direcciones de Internet
podría agotarse.
En respuesta a este problema, los ingenieros de Internet desarrollaron un conjunto de técnicas para
hacer un uso más eficiente del espacio de direcciones de Internet. Entre estas técnicas estaba el
"subnetting" de redes. La Figura muestra un ejemplo de una dirección de red que ha sido dividida en
subredes. Subnetting es el proceso de dividir la porción de red de una dirección IP, lo cual permite a un
administrador particionar o dividir una red sin tener que usar una nueva dirección para cada partición de
la red. Usando técnicas de subnetting, los diseñadores de redes podían dividirlas, a pero cada partición
se le daría su propio número de subred. Los sistemas remotos podrían aún llegar a la red enviando
paquetes a la dirección de red de destino. Una vez que los paquetes llegaran a la frontera de la red de
destino, podrían ser enviados a la subred apropiada dentro de la red. Esta técnica ha tenido mucho
éxito en conservar la cantidad de direcciones de red mayores y en permitir un crecimiento continuado
de Internet.
La idea básica es tomar la dirección IP, que está dividida en una porción de red y una porción de host, y
luego volverla a dividir agregando una tercera parte, el número de subred. El resultado es una dirección
que asume la forma número de red, número de subred, y número de host. Como se trató anteriormente,
la dirección IP se divide en la porción de red y la porción de host conociendo su clase. Cuando un
número de subred se agrega entre la porción de red y la porción de host, ¿cómo se identifica la parte
que identifica a la subred?
Para responder a esta pregunta, es importante comprender la función de otro número que se inventó
para el subnetting, llamado máscara de subred. Como la dirección IP en sí, este nuevo número también
se escribe en notación decimal de punto, como cuatro octetos que representan 32 bits. En el número de
máscara, los valores "1" se colocan si el bit correspondiente de la dirección IP pertenece a la red o a la
parte de subred de la dirección. Los valores "0" se colocan en la máscara donde el bit correspondiente
de la dirección IP es parte de la porción de host. Así, si la clase de la dirección IP se conoce y la
máscara de subred se conoce, puede entonces dividirse en red-subred-host. Requiere algo de práctica
comprender enteramente el proceso.
Mientras que la clase de una dirección IP determina el tamaño de la parte de la red, el tamaño de la
parte de la subred puede variar. La información necesaria para determinar el tamaño de la parte de la
subred está contenida en la máscara. Escriba la máscara en binario como unos y ceros. Requiere
práctica la conversión de números decimales a binarios. Luego, continúe con el procedimiento de la
siguiente forma:
·
Identifique la clase de la dirección.
86
·
·
Elimine cualquier bit "1" de la máscara que corresponda a la parte de red de la dirección.
Los restantes bits "1" de la máscara indican los bits de la dirección que son la parte de subred
de la misma.
Direcciones IP Privadas
Al tratar con direcciones IP, redes corporativas y redes hogareñas, es importante conocer la diferencia
entre direccionamiento IP privado y direccionamiento IP público. El Protocolo Internet versión 4 (IPv4) y
la cantidad de estas direcciones IP públicas disponibles están disminuyendo rápidamente. La razón
para esto es que hay un límite a la cantidad de direcciones IP que puede proporcionar IPv4. Para
ayudar a reservar la cantidad de direcciones IP públicas disponibles, se usa el concepto de
direccionamiento IP privado. Los rangos de direcciones de las direcciones IP privadas reservadas se
muestran en la Figura . Lo que esto significa es que una corporación por ejemplo puede tener sólo
unas pocas direcciones IP que son públicas o conocidas. Todas las direcciones IP que la compañía usa
dentro de su red están contenidas dentro de su red y por lo tanto se las considera privadas. Se las
considera privadas porque sólo son conocidas por el administrador de la compañía y no conocidas para
el público. La Figura ilustra un ejemplo de este proceso que muestra cómo se usan las direcciones
de red IP privadas dentro de la WAN.
Traducción de Direcciones de Red (NAT)
El concepto de direccionamiento IP público y privado se explica mejor mediante el uso de la Traducción
de Direcciones de Red (NAT). NAT permite a las compañías mantener sus direcciones privadas
seguras y no conocidas por el público. NAT se habilita en un router o un dispositivo de gateway, que
traduce todo el tráfico entrante y saliente a través de las direcciones IP conocidas o públicas. La Figura
ilustra cómo la estructura de direcciones IP podría mostrarse al usar NAT. La dirección IP Interna es
diferente y se mantiene en privado de la dirección pública externa que se expone a otros mediante
Internet. Las direcciones IP públicas son lo que permite a la gente de la compañía acceder a
información y redes fuera de la LAN conectándose a otras direcciones IP públicas. NAT también
proporciona seguridad ocultando las direcciones IP de clientes y servidores dentro de la red de la
compañía. Asignar la dirección IP pública al dispositivo NAT logra esto. Si se hace un intento de
obtener acceso a la red, la persona es dirigida al dispositivo NAT y luego usualmente detenida por un
firewall en el mismo sistema o dispositivo en el cual está configurada la NAT.
87
IPv6
El Protocolo Internet versión 6 (IPv6) es el protocolo de próxima generación diseñado para reemplazar
la versión actual del Protocolo Internet, IPv4. El siguiente es un ejemplo de cómo se numerará la
Dirección IPv6. Las direcciones IPv6 se escriben en hexadecimal:
1080:0000:0000:0000:
0008:0800:200C:417A
Los ceros a la izquierda en cada valor de 16 bits pueden omitirse. Así, la misma dirección puede
expresarse de la siguiente manera:
1080:0:0:0:
8:800:200C:417A
Puesto que las direcciones IPv6, especialmente en la fase inicial de implementación, pueden contener
valores de 16 bits de cero, tal cadena de ceros por dirección puede omitirse y ser reemplazada por dos
puntos dobles. Como resultado, esta dirección puede abreviarse:
1080::8:800:200C:417A
La mayor parte de Internet usa ahora IPv4, que tiene casi veinte años de antigüedad. IPv4 ha sido
considerablemente elástica pese a su edad, pero está comenzando a tener problemas. Lo más
importante es que hay una creciente escasez de direcciones IPv4, que son necesarias cuando se
agregan nuevos sistemas a Internet.
IPv6 arregla una cantidad de problemas de IPv4, como la cantidad limitada de direcciones IPv4
disponibles. También agregará muchas mejoras a IPv4 en enrutamiento y en diversas tareas de
configuración de la red. Se espera que IPv6 reemplace gradualmente a IPv4, con los dos coexistiendo
durante una cantidad de años en un periodo de transición.
Se dispone de software que soporta IPv6. Este software sólo está disponible en las últimas versiones
como Windows XP y algunas de las últimas versiones de Linux por ejemplo. Muchas aplicaciones
comunes de Internet ya funcionan con IPv6, y más están siendo adaptadas.
88
4.2
Direccionamiento IP
4.2.8
Subnetting
Es imposible tratar TCP/IP sin mencionar subnetting. Como administrador de sistemas es importante
comprender el subnetting como medio de dividir e identificar redes separadas en la LAN.
La Figura ilustra un ejemplo de cómo se puede aplicar subnetting a una red. La Figura muestra
cómo internamente, las redes pueden dividirse en redes más pequeñas llamadas subredes.
Proporcionando este tercer nivel de direccionamiento, las subredes proporcionan una flexibilidad extra
para un administrador de redes. Por ejemplo, una dirección de red Clase B proporcionada por el
Registro Norteamericano de Números de Internet (ARIN), puede dividirse en muchas subredes más
pequeñas y manejables. En el ejemplo de la Figura , las tres redes 131.108.1.0, 131.108.2.0, y
131.108.3.0 son todas subredes de la red 131.108.0.0. No siempre es necesario dividir una red
pequeña en subredes. No obstante, en el caso de redes grandes o extremadamente grandes, el
subnetting se requiere. La Figura proporciona un ejemplo de por qué es importante dividir en
subredes una red grande. Las subredes son similares al sistema de numeración telefónica. Este
sistema de numeración está dividido en códigos de área, que se dividen en centrales, que a su vez se
dividen en conexiones individuales. Las direcciones de subred especifican un número de red, un
número de subred, dentro de la red, y un número de host dentro de la subred. En términos sencillos, el
subnetting es un medio de usar la máscara de subred para dividir una red grande o extremadamente
grande en segmentos más pequeños, eficientes y manejables, o subredes. La Figura proporciona un
ejemplo de dirección binaria de 32 bits que está dividida en subredes.
Máscaras de Subred
Una comprensión del subnetting requiere una comprensión de las máscaras de subred. La dirección IP
210.168.1.8 por ejemplo, es una dirección IP Clase C (recuerde, las direcciones Clase C recaen en el
rango 192-223). La máscara de subred por defecto correspondiente será 255.255.255.0, que es una
89
máscara de subred Clase C. El método de identificar la porción de red de la dirección de la parte del
host de la dirección IP se trató anteriormente. Los primeros tres octetos representan la porción de red
de la dirección. El último octeto se reserva para la dirección del host.
La máscara de subred por defecto Clase A sería 255.0.0.0. Una máscara de subred por defecto Clase
B sería 255.255.0.0, y una dirección Clase C tendrá una máscara de subred por defecto de
255.255.255.0. La Figura presenta una lista con las máscaras de red Clase A, B, y C.
La máscara de subred ayuda a identificar todas las computadoras que estarán en la red 255.255.255.0.
Por lo tanto, todos los hosts de esta red tendrían una dirección IP de 210.168.1.X. Todos contendrían
los mismos valores en los primeros tres octetos de su dirección IP, pero la "X" que representa la porción
del host de la dirección sería única para cada computadora de la red. Éste es el valor que identificará al
host de la red 210.168.1.0. La dirección IP 210.168.1.8 identifica a un host específico de la red
201.168.1.0.
La cantidad máxima disponible de hosts que se permiten en una red Clase C es 254. El rango de
direcciones IP que puede otorgarse a estos hosts son 210.168.1.1 - 210.168.1.254 para un total de 254
hosts. La cantidad de hosts de una subred o red en particular puede determinarse usando la fórmula
N
(2 -2). Aquí, N = el número de octetos disponibles para direcciones de hosts.
No puede haber 255 hosts porque ese valor está reservado para una dirección de broadcast. Por
ejemplo, la dirección IP 210.168.1.255 no podría usarse como dirección de host en la red 210.168.1.0
porque está reservada como dirección de broadcast para esa red.
Ejemplo
En una máscara de subred Clase C (255.255.255.0), sólo un octeto está disponible para hosts.
Convierta estos octetos a notación decimal y obtenga 8 bits (o un octeto) para una dirección de host.
Aplique esta fórmula:
8
2 – 2 = 254 hosts en una red Clase C
Para una red Clase B (255.255.0.0) hay 16 bits disponibles para una dirección de host. Aplique la
fórmula:
16
2 – 2 = 65.534 hosts en una red Clase B
Para una red Clase A (255.0.0.0) hay 24 bits disponibles para una dirección de host. Aplique la fórmula:
24
2 – 2 = 16.777.214 hosts en una red Clase A
El administrador del sistema debe resolver estos problemas al agregar y expandir la red. Es importante
saber cuántas subredes/redes son necesarias y cuántos hosts se permitirán en esa red. Con
subnetting, la red no se limita a las máscaras de subred estándar Clase A, B o C y hay más flexibilidad
en el diseño de la red. Refiérase a la Figura 5 para observar un gráfico de referencia rápida.
90
El siguiente ejemplo describirá cómo crear una subred para 1500 hosts. Una máscara de subred Clase
B proporcionará 65.534 hosts y una máscara de subred Clase C sólo proporcionaría 254. No obstante,
sólo se necesitan 1500 hosts. Crear una subred que proporcionara 65.534 hosts sería un enorme
desperdicio de espacio. Es posible crear una máscara de subred que daría los 1500 hosts requeridos
pero no usaría la totalidad de los 65.534. Esto se hace "tomando prestados" bits de un octeto para crear
una máscara de subred.
Se requiere una subred que proporcione 1500 hosts. Una máscara de subred Clase C no puede usarse,
así que en cambio se usa una subred Clase B.
255.255.0.0
Esto proporcionará 65.534 hosts, pero todas las otras direcciones de host no deberán desperdiciarse.
N
Use la fórmula (2 -2) para determinar qué será la máscara de subred. La conversión a forma binaria se
trató en una sección anterior. Por ejemplo, la máscara de subred 255.255.0.0 equivale a lo siguiente:
11111111.11111111.00000000.00000000
Para poder crear la máscara de subred, es necesario conservar estas direcciones IP y es necesario
tomar prestados 5 bits del tercer octeto. Haciendo esto, una máscara de subred limita las cantidades de
subredes que pueden usarse a 30. No obstante, en lugar de tener disponibles 65.534 hosts, sólo 2046
hosts están disponibles. Esto crea una máscara de subred que proporciona los 1500 hosts necesarios.
En este ejemplo, un usuario no tiene que desperdiciar el resto de las direcciones IP. La nueva máscara
de subred será como la siguiente:
11111111.11111111.11111000.00000000 = 255.255.248.0
Ahora, en lugar de 16, 11 bits están disponibles para una dirección de host. Recuerde que 16 bits se
usan para direcciones de host con una máscara de subred Clase B estándar y 8 se usan con una
N
dirección Clase C estándar. Esto permitirá más de 254 pero menos que 65.534 hosts. La fórmula (2 -2)
permite el cálculo de cuántos hosts proporcionará esta máscara de subred.
91
11
2 – 2 = 2046 hosts
2046 hosts proporcionarán los 1500 hosts que necesitamos, con 546 direcciones de hosts sobrantes. Si
los hosts restantes no se usan, entonces hay solamente 546 hosts desperdiciados y no 65.534. A partir
de este ejemplo, un usuario puede ver que en una red grande donde la cantidad de direcciones IP es
limitada, subnetting puede ayudar a conservar direcciones IP.
El comando /sbin/route
El comando /sbin/route se usa para mostrar la tabla de enrutamiento en Linux. Las diversas opciones
del comando /sbin/route, incluyendo add o del, manipularán la tabla de enrutamiento IP. El uso
principal de este comando es configurar rutas estáticas a rutas o redes específicas mediante una
interfaz después de que ha sido configurada. El uso de este comando sin opciones mostrará la tabla de
enrutamiento como se ve en la Figura . Por ejemplo, el siguiente comando asociará el dispositivo de
red eth0 a una dirección de red específica.
/sbin/route add -net <net_address> netmask 255.255.255.0 dev eth0
Otro concepto importante a tratar en el contexto de Subnetting y Enrutamiento en Linux es la sentencia
ip forward. Esto es así especialmente si se está administrando un servidor Linux que está configurado
como router. La cadena ip forward se refiere a paquetes que son recibidos pero no tienen como destino
su máquina. Estos paquetes se están enrutando a través de su máquina Linux. El comando para
habilitar ip forward es:
# echo "1"> /proc/sys/net/ipv4/ip_forward
NOTA:
Al reiniciar su servidor, este valor volverá a cero. Recuerde poner el comando anterior en los scripts init.
Este proceso se tratará en los módulos 9 y 10
4.3
Resolución de Nombres
4.3.1
Descripción general de la resolución de nombres
Los números de dirección IP son necesarios para identificar puntos de conexión a una red, y están
diseñados para hacer posible la operación eficiente de dispositivos en red. Pero en su forma numérica,
las direcciones son difíciles de recordar y administrar. Esto es especialmente cierto cuando existe una
necesidad de cambiar direcciones para adaptarse a las cambiantes condiciones de la red. Aunque los
dispositivos de red usan direcciones numéricas, es fácil trabajar con los nombres. La técnica que
permite a los nombres representar direcciones de red se denomina "resolución de nombres".
Por ejemplo, puede accederse al sitio web "Cisco.com" sin conocer la dirección IP real que el
dispositivo en Cisco está configurado para usar. Un servicio de resolución de nombres traduce, o
"mapea", el nombre "Cisco.com" a una dirección IP para llegar al dispositivo de destino. Un dispositivo
92
puede nombrarse por su función o propósito, o incluso para atraer la atención. Nombres de networking
como "Yahoo.com" o "Amazon.com" se han hecho bien conocidos entre usuarios de la World Wide
Web. Los nombres también se usan para identificar la ubicación o función de los dispositivos de red.
Por ejemplo, un router llamado "San Jose" indicaría su ubicación, o el nombre de host "Eng-Server"
indicaría su función en el departamento de ingeniería.
El uso de nombres para representar direcciones proporciona otra ventaja. Puesto que los usuarios
ahora pueden identificar los dispositivos de red por su nombre, la dirección que corresponde a un
nombre determinado puede cambiarse sin ninguna interrupción. Los usuarios de la red pueden
continuar usando el mismo nombre para referirse al dispositivo y dejar al servicio de resolución de
nombres la tarea de hallar la nueva dirección que equivale a ese nombre. Esto hace a la red mucho
más fácil de usar y administrar. Las redes usan tablas de hosts y el Servicio de Nombres de Dominio
(DNS) para asociar nombres y direcciones. La Figura ilustra cómo el servidor DNS resuelve el
nombre de post office de una dirección de e-mail.
4.3
Resolución de Nombres
4.3.2
Nombres de host y tablas de hosts
En la red, a cada computadora se le da un nombre único para identificarla. Este nombre se usa para
comunicarse con una computadora en particular. La Figura muestra un ejemplo de las
configuraciones de nombre de host para un sistema informático en particular. Para llegar a otra
computadora, la red necesita usar la dirección IP de esa computadora. Las tablas de hosts son listas
que pueden configurarse en cada computadora, asociando los nombres de las computadoras de la red
con la tabla de hosts de direcciones IP. La Figura es un ejemplo de una tabla de hosts de muestra.
La tabla incluye la dirección IP y el nombre que se mapea a esa dirección. En una computadora que
usa una tabla de hosts, un usuario puede referirse a otra computadora por su nombre, y la computadora
buscará el nombre en la tabla de hosts y encontrará su dirección IP. La dirección IP puede incluso
cambiarse, y aún puede hacerse referencia a ese sistema por el mismo nombre. Cuando una
computadora debe alcanzar el otro sistema, encontrará la nueva dirección en la tabla de hosts. Aunque
una tabla de hosts permite la comunicación con otras computadoras por nombre, tiene algunas
desventajas. Para empezar, una tabla de hosts debe configurarse en cada computadora separada para
indicarle los nombres y correspondientes direcciones IP de cada una de las otras computadoras. En
una red grande con muchas computadoras, esto requiere mucha configuración. En segundo lugar,
cuando hay un cambio en la red (la adición de una nueva computadora, por ejemplo), las tablas deben
actualizarse en cada una de las computadoras para reflejar el cambio. La tarea de mantener tablas de
hosts precisas en una red grande puede consumir mucho tiempo y ser propensa a los errores.
93
4.3
Resolución de Nombres
4.3.3
El sistema de nombres de dominio
El uso de tablas de hosts requiere mucho mantenimiento. En contraste, el Sistema de Nombres de
Dominio (DNS) asigna esta tarea a servidores de la red. Servidores especializados dentro de la red
logran la tarea de traducir nombres a direcciones. Las computadoras host son entonces aliviadas de
tener que mantener un listado de mapeos de nombre-a-dirección. Esto simplifica el mantenimiento de
la red y permite una mayor flexibilidad.
El DNS funciona como la asistencia de directorio en el sistema de teléfonos. Usando el sistema de
teléfonos, el nombre y dirección de una persona puede conocerse, pero no su número telefónico. Una
llamada a la operadora de asistencia de directorio le permite obtener el número telefónico que va con el
nombre y la dirección. Si se necesita el número telefónico de una persona de otro país, la operadora
puede necesitar contactarse con el servicio de asistencia de directorio de otro país. DNS funciona de
manera similar. El servicio se distribuye a través de una cantidad de sistemas. Cada uno sabe las
direcciones de un conjunto de nombres y sabe cómo llegar a otros servidores para encontrar
direcciones para nombres fuera de su alcance. Por ejemplo, cuando una aplicación de una
computadora de California necesita saber la dirección IP de una computadora de Sudáfrica, la
aplicación envía su solicitud a un DNS de California. El servidor de California puede no conocer la
respuesta, pero sí sabe cómo conectarse al servidor DNS apropiado en Sudáfrica.
Para poder garantizar que los nombres completos de cualesquiera dos computadoras serán diferentes,
Internet ha adoptado un sistema de nombrado que usa cadenas adicionales de letras, o sufijos,
después de los nombres. Las partes de un nombre están separadas por puntos. Esto es similar a las
direcciones IP, pero no hay relación entre las partes del nombre de un sistema y su dirección IP. El
nombre de Internet marx.ps.uofr.edu, por ejemplo, podría tener la dirección IP 128.11.3.2. La cadena
marx no está relacionada al 128. Ni tampoco ninguna otra parte del nombre está relacionada con
partes de la dirección. El total del nombre corresponde al total de la dirección.
En el nombre marx.ps.uofr.edu, el sufijo final, .edu, identifica el tipo de organización (una institución de
altos estudios). El sufijo .uofr identifica una universidad en particular (Universidad de Rochester). El .ps
identifica un departamento (ciencias políticas), y el nombre marx identifica una computadora en
particular. Otros sufijos finales comunes son .com para organizaciones comerciales, .gov para agencias
gubernamentales, y .net para empresas de red.
La tarea de configurar y mantener servidores con nombre de dominio recae en los administradores de
red. Para hacer uso del DNS, cada host o sistema cliente debe estar configurado con la dirección de al
menos un servidor DNS para contactarse para traducir nombres a direcciones. Un programa se
convierte en cliente del servicio de nombre de dominio cuando envía el nombre de una computadora al
servidor DNS local. El programa está preguntando por la dirección IP del sistema con ese nombre. El
servidor local puede contactar a otros servidores para traducir el nombre a una dirección, pero el cliente
recibe la respuesta del servidor local.
94
4.3
Resolución de Nombres
4.3.4
Servicios de nombre y el NOS
En los NOSs, los programas de los usuarios pueden acceder a dispositivos de red y servicios por
nombre. Hoy, todos los NOSs usan DNS para traducir nombres de computadora a direcciones IP. Pero
antes de la adopción general de TCP/IP y del sistema de nombres de dominio de Internet de parte de
los fabricantes de diferentes NOSs, se usaban otras técnicas de nombrado para identificar sistemas y
servicios. Para dar lugar a los primeros esquemas de nombrado y a las aplicaciones que los usan, los
fabricantes de NOSs han desarrollado extensiones a DNS que permiten que sus propios tipos de
nombres sean asociados a direcciones IP. De esta forma, las aplicaciones que usan convenciones de
nombrado más antiguas pueden encontrar las direcciones IP de dispositivos y servicios.
Un servicio más antiguo pero ampliamente utilizado para comunicarse entre aplicaciones cliente y
servicios de red es Network Basic Input/Output System (NETBIOS). Este servicio fue desarrollado por
IBM en 1985 y aún se usa en computadoras Microsoft Windows. Para traducir los nombres usados por
aplicaciones NETBIOS a direcciones IP, Microsoft desarrolló una adición a DNS llamada Servicio de
Nombres de Internet de Windows (WINS). La Figura muestra un ejemplo de la página de
configuración de DNS en un sistema Windows 2000.
4.3
Resolución de Nombres
4.3.5
WINS
El Servicio de Nombres de Internet de Windows (WINS) no es una parte incorporada del servicio DNS
de Internet de nombre-a-dirección. Para poder "resolver" o mapear los nombres del NETBIOS usados
por las aplicaciones a direcciones IP, Microsoft agregó WINS como extensión a DNS. WINS automatiza
el proceso de traducir los nombres del NETBIOS a direcciones IP para que los paquetes puedan ser
apropiadamente entregados a dispositivos o servicios. Un servidor WINS asocia dinámicamente los
nombres del NETBIOS a direcciones IP y automáticamente actualiza su base de datos de asociaciones
95
nombre-a-dirección a medida que los sistemas entran y salen de la red, de modo que no requiere un
mantenimiento continuo. Los sistemas cliente, no obstante, deben configurarse con la dirección de un
servidor WINS que lleve a cabo esta traducción. La Figura muestra un ejemplo de la página de
configuración WINS en un sistema Windows 2000. En muchas redes de hoy, NetBIOS ya no se usa.
Por esta razón, Microsoft está haciendo esfuerzos por hacer desaparecer el servicio WINS.
4.4
Protocolos TCP/IP
4.4.1
Descripción general de los protocolos TCP/IP
Un protocolo es un conjunto de mensajes que se intercambia entre sistemas en una secuencia definida
para lograr una tarea de networking específica. La disposición, o formato, de los mensajes, está
estrictamente definido, y las reglas para el intercambio de mensajes entre sistemas está estrictamente
especificado en los documentos de normas. TCP/IP es una "suite" o colección de diferentes protocolos,
cada uno llevando a cabo una tarea especializada. En una red en buen funcionamiento, los protocolos
individuales se coordinan de tal manera que, todos juntos, entregan servicios de red a programas de
aplicaciones. Las Figuras , , y muestran qué protocolo funciona en las capas específicas del
modelo TCP/IP. Como especialistas en un equipo de construcción, cada protocolo lleva a cabo su
función particular en un momento particular. Cada uno depende del trabajo de los otros. La siguiente
sección bosqueja las funciones llevadas a cabo por cada uno de los protocolos más importantes que
componen la suite de protocolos TCP/IP.
96
4.4
Protocolos TCP/IP
4.4.2
Protocolo de Resolución de Direcciones (ARP)
El Protocolo de Resolución de Direcciones (ARP) entra en juego cuando un sistema comienza una
conversación con otro host de una LAN. La Figura ilustra el proceso de la comunicación que tiene
lugar entre sistemas que usan ARP. El primer sistema sabe que el segundo está ubicado en algún sitio
de la red (su dirección IP), pero no sabe su ubicación exacta en la red (su dirección Ethernet). El
problema es similar a conocer que una persona llamada Mary está en la clase, pero no saber en qué
asiento se sienta. Para descubrir el número de asiento de Mary, se le preguntaría a toda la clase, "Si tu
nombre es Mary, por favor decíme dónde te sentás". Suponiendo que haya solamente una persona
llamada "Mary" en la habitación, Mary levantará la mano para identificar su número de asiento. ARP
consiste en el mapeo de direcciones de red con direcciones de Control de Acceso al Medio (MAC).
Cuando los sistemas de origen (sistema A) y de destino (sistema B) están ambos conectados a la
misma LAN, el origen (sistema A) emitirá un broadcast de una solicitud ARP para hallar la dirección
MAC de la dirección MAC de los destinos pretendidos (sistema B). Puesto que la señal enviada es un
mensaje broadcast todos los dispositivos del dominio de broadcast de la LAN la escucharán,
incluyendo el dispositivo de destino (sistema B). No obstante, sólo el dispositivo de destino (sistema B)
responderá a la solicitud ARP. El sistema B enviará un mensaje de respuesta ARP, que contiene su
dirección MAC, al dispositivo de origen (sistema A). El sistema A guardará entonces la dirección MAC
en su caché ARP. Cuando el sistema A necesite comunicarse con el sistema B otra vez, sólo necesita
verificar la caché ARP para encontrar la dirección MAC del sistema B y luego puede enviar los datos
97
directamente sin tener que enviar una solicitud ARP primero.
4.4
Protocolos TCP/IP
4.4.3
Internet Control Message Protocol (ICMP)
.
Una red requiere herramientas para informar sobre errores que puedan surgir, y los administradores de
red necesitan herramientas para descubrir las razones de que haya errores. El Internet Control
Message Protocol (ICMP) proporciona un conjunto de mensajes de control y error para ayudar a
rastrear y resolver problemas de la red. La Figura ilustra en qué capa del modelo TCP/IP opera
ICMP. Supongamos, por ejemplo, que una ruta física de la red falla por lo cual algunos hosts se hacen
inalcanzables. La Figura ilustra el caso en el cual ICMP se usa para enviar un mensaje de "destino
inalcanzable" cuando hay un error en algún lugar de la red que está evitando que el frame o paquete se
envíe al sistema o dispositivo de destino. ICMP incluye un tipo de mensaje, llamado Solicitud de Eco,
que puede enviarse de un host a otro para ver si es alcanzable en la red. La Figura ilustra el caso en
el cual ICMP se usa para enviar un mensaje "respuesta de eco" para probar y ver si el sistema o
dispositivo de destino está disponible y puede ser alcanzado. Si es alcanzable, el host de destino
responderá con el mensaje Respuesta de Eco ICMP. El programa Ping usa ICMP para enviar mensajes
de Solicitud de Eco y para recibir mensajes de Respuesta de Eco. Como otro ejemplo, supongamos
que un host remoto es alcanzable desde una computadora local, pero la ruta que los mensajes tienen
para alcanzar ese host es desconocida. ICMP permite que el camino, o ruta, desde la computadora
local al host remoto sea rastreada usando la rutina Traceroute. Las herramientas de resolución de
problemas de ICMP son parte de casi todas las pilas de protocolos TCP/IP. ICMP también se usa en
casos donde un paquete no entregable podría llegar a un servidor o router. Si un router o servidor no
puede entregar un paquete a su destino, el router envía un mensaje ICMP "destino inalcanzable" de
vuelta al origen para informarle del problema. El router entonces descarta el paquete original. Los
destinos podrían ser inalcanzables porque el host emisor especificó una dirección inexistente, o aunque
menos frecuente, el router puede no conocer la ruta al destino. Si un router no puede entregar un
mensaje ICMP por cualquier razón, el router no enviará un mensaje ICMP para informar sobre el fallo.
Hacerlo así podría inundar la red con una infinita saturación de mensajes ICMP. Por esta razón un
mensaje ICMP no entregable se descartará. Otro tema importante que saber acerca de los mensajes
ICMP es el alcance. Los mensajes ICMP también se envían a sistemas y dispositivos para probar el
alcance de otro sistema o dispositivo del otro lado de la red. Cualquier host TCP/IP puede enviar una
solicitud de eco ICMP. Una solicitud de eco ICMP es generada por el comando Ping. .
98
99
4.4
Protocolos TCP/IP
4.4.4
Protocolo de Control de Transmisión (TCP)
Dos programas pueden comunicarse entre sí a través de una serie de muchas redes interconectadas.
Una aplicación de e-mail, por ejemplo, puede enviar un mensaje a un servidor de correo de otra ciudad
o país para que el destinatario lo lea. El Protocolo Internet (IP) enviará el mensaje de una red a la
siguiente, pero puede no ser capaz de entregar el mensaje al destino a causa de problemas en la red.
IP hace su mejor esfuerzo, pero no garantiza la entrega del mensaje. El Protocolo de Control de
Transmisión (TCP) tiene el trabajo de garantizar que los mensajes lleguen a su destino, o si no pueden
entregarse, informar a los programas de aplicación acerca del fallo. Aplicaciones como el e-mail deben
tener la garantía que proporciona TCP. Esto también es cierto de otras aplicaciones, como
navegadores web, que requieren el servicio de entrega confiable proporcionado por TCP. Una vez
establecida una conexión TCP entre dos aplicaciones, todos los mensajes fluyen desde el origen al
destino a través de esa conexión lógica. La Figura ilustra un ejemplo de cómo TCP establece una
conexión lógica.
4.4
Protocolos TCP/IP
4.4.5
Protocolo de Datagrama del Usuario (UDP)
Mientras que algunas aplicaciones requieren un servicio confiable, de entrega garantizada, como TCP,
otras no. Necesitan un servicio que haga su mejor esfuerzo para entregar los mensajes, pero no
garantice la entrega. Así como la oficina de correos hace su mejor esfuerzo para entregar el correo,
pero no garantiza que las cartas llegarán al destino, el Protocolo de Datagrama del Usuario (UDP)
proporciona un servicio "no confiable" a las aplicaciones que pueden tolerar una pérdida de algunos
mensajes pero aún funcionar. Aplicaciones que envían flujos de datos de video o audio recaen en esta
categoría. Pueden experimentar una cierta cantidad de pérdida de datos y aún así funcionar de manera
aceptable para los usuarios de la red. Otras aplicaciones que usan UDP incluyen a DNS y algunas
formas de transferencia de archivos, incluyendo a TFTP. Cada mensaje UDP se envía
independientemente de los otros sin establecer primero una conexión lógica entre el origen y el destino.
Las características que identifican al protocolo UDP son las siguientes:
·
·
·
·
No confiable
Rápido
Da por supuesto que la aplicación retransmitirá si hay error
A menudo usado en estaciones de trabajo sin disco
100
4.4
Protocolos TCP/IP
4.4.6
Servicios DHCP
El propósito del Protocolo de Configuración Dinámica del Host (DHCP) es permitir a las computadoras
individuales de una red IP extraer sus configuraciones de un servidor DHCP. Cuando una computadora
de la red necesita una dirección IP, envía una solicitud a un servidor DHCP. El servidor DHCP puede
entonces proporcionar a la computadora host toda la información de configuración que necesita,
incluyendo dirección IP, máscara de subred, gateway, servidor DNS y WINS, y dominio. DHCP también
permite la recuperación y la capacidad de renovar automáticamente direcciones IP de red mediante un
mecanismo de préstamo, que adjudica una dirección IP durante un periodo específico, y luego la libera
y asigna una nueva dirección IP. DHCP es un método aplicamente utilizado para reducir el trabajo
necesario para administrar una red IP grande. La Figura muestra el proceso que tiene lugar cuando
un cliente solicita una dirección IP DHCP al servidor DHCP.
4.4
Protocolos TCP/IP
4.4.7
Protocolo de Transporte de Hipertexto (HTTP)
El Protocolo de Transporte de Hipertexto (HTTP) se especializa en la transferencia de páginas de la
World Wide Web entre programas cliente navegadores web como Netscape Communicator o Internet
Explorer, y servidores web donde se almacenan las páginas web. Las Figuras y proporcionan
ejemplos de dos navegadores web populares, Internet Explorer y Netscape Navigator. HTTP define el
formato exacto de las solicitudes que el navegador envía así como el formato de las respuestas que el
servidor devuelve. El contenido de las páginas web se organiza usando el Hypertext Markup Language
(HTML). Las reglas para transportar estas páginas componen el protocolo HTTP.
101
4.4
Protocolos TCP/IP
4.4.8
Protocolo de Transferencia de Archivos (FTP)
Mientras que HTTP se especializa en la transferencia de archivos de páginas web, el Protocolo de
Transferencia de Archivos (FTP) se usa para transferir cualquier tipo de archivo de un sistema a otro.
Esto incluye documentos de texto, gráficos, sonidos, videos o archivos de programas. FTP es un
protocolo de propósito general que puede usarse para copiar todo tipo de archivos de una computadora
a otra. FTP hace uso de los servicios de transporte confiables de TCP para establecer una conexión
lógica entre los sistemas. FTP es uno de los protocolos más utilizados de Internet. La Figura muestra
un ejemplo de un cliente FTP que se ha conectado a un servidor FTP. Del lado izquierdo están los
archivos del sistema local y a la izquierda están las carpetas y archivos que están ubicados en el
servidor FTP que están disponibles para su descarga.
4.4
Protocolos TCP/IP
4.4.9
Telnet
Para interactuar con y controlar una computadora local o dispositivo de red en particular, los usuarios
normalmente conectan un monitor o terminal al sistema e inician sesión. El protocolo telnet permite a
los usuarios conectarse e iniciar sesión en un sistema que es remoto respecto a sus computadoras.
Telnet permite comunicaciones de la terminal interactiva con sistemas remotos como si estuvieran
directamente conectados a la terminal, incluso aunque puede haber muchas redes separando a la
terminal del sistema remoto. Usando telnet, los usuarios pueden tipear comandos al sistema como si
estuvieran directamente conectados a él. Telnet usa los servicios de TCP para establecer una conexion
lógica entre la terminal y la computadora remota. Esta conexión se llama sesión telnet. La Figura
muestra un ejemplo de una sesión telnet establecida desde una estación de trabajo Windows 2000 a
un servidor Linux Red Hat 7.2.
102
4.4
Protocolos TCP/IP
4.4.10
SMTP
Simple Mail Transfer Protocol (SMTP) es un protocolo para enviar mensajes de e-mail entre servidores.
La Figura ilustra la relación que un servidor SMTP tiene con un sistema cliente. Esta figura ilustra
cómo un sistema cliente que envía e-mail debe hacerlo mediante el servidor de e-mail SMTP. La mayor
parte de los sistemas de e-mail que envían correo por Internet usan SMTP para enviar mensajes de un
servidor a otro. Los mensajes pueden luego recuperarse con un cliente de e-mail usando Post Office
Protocol (POP) o Internet Message Access Protocol (IMAP). Además, SMTP se usa en general para
enviar mensajes de un cliente de correo a un servidor de correo. La Figura muestra un ejemplo de
cómo un usuario podría configurar un sistema cliente para usar el servidor SMTP. Por esta razón tanto
el servidor POP o IMAP como el servidor SMTP deben configurarse en una aplicación de e-mail.
Después de establecer la conexión TCP al puerto 25 (usado por SMTP), la máquina emisora, operando
como cliente, espera que la máquina destinataria, operando como servidor, hable primero. El servidor
comienza enviando una línea de texto proporcionando su identidad y diciendo si está o no preparado
para recibir correo. Si no lo está, el cliente libera la conexión y vuelve a intentarlo después.
Si el servidor está dispuesto a aceptar e-mail, el cliente anunciar de dónde proviene el e-mail, y a quién
se dirige. Si existe un destinatario en el destino, el servidor da al cliente el mensaje de "siga adelante".
Luego el cliente envía el mensaje y el servidor da acuse de recibo. Si hay más e-mail, se lo envía
ahora. Cuando todo el e-mail ha sido intercambiado en ambas direcciones, la conexión se libera.
103
4.4
Protocolos TCP/IP
4.4.11
POP3
Post Office Protocol versión 3 (POP3) es un protocolo de servicio de correo común usado por los ISPs
que proporcionan Internet y servicio de e-mail a clientes hogareños. POP3 permite a una estación de
trabajo recuperar el correo que contiene el servidor. La Figura ilustra la relación que un servidor de email tiene con los sistemas cliente. Esta figura ilustra cómo un sistema cliente que recibe e-mail debe
hacerlo mediante el servidor de e-mail SMTP. Una vez recuperado el correo, puede borrarse del
servidor. La Figura muestra una interfaz de cliente típica que se usa para configurar el sistema para
usar un servidor de e-mail POP3 para recuperar el e-mail.
4.4
Protocolos TCP/IP
4.4.12
IMAP
Internet Message Access Protocol (IMAP) es un protocolo de e-mail más nuevo que es más robusto
que POP3. IMAP es ofrecido por muchos ISPs, y algunos de ellos incluso están discontinuando su
soporte a POP3. IMAP es un método para acceder al correo electrónico o a mensajes de foros de
boletines que se guardan en un servidor de correo. IMAP es completamente compatible con las normas
de mensajería de Internet Extensión de Correo de Internet Multipropósito (MIME), y permite el acceso y
administración de los mensajes desde más de una computadora. Además, el software del cliente no
necesita tener ningún conocimiento acerca del formato de almacenamiento de archivos del servidor. La
Figura muestra una interfaz de cliente típica que se usa para configurar el sistema para que use un
servidor de e-mail POP3 para recuperar e-mail.
104
Resumen
Este capítulo trató TCP/IP. Algunos de los conceptos importantes a retener de este capítulo son
los siguientes:
·
·
·
·
·
·
·
Un sistema de red se llama cerrado cuando una compañía lo posee y controla. En
contraste, la suite de protocolos TCP/IP es un sistema abierto.
Las cuatro capas que componen TCP/IP son la capa de Aplicación en la parte superior,
seguida por la capa de Transporte, la capa de Internet y finalmente la capa de Interfaz de
Red.
Cada dirección IP tiene dos partes. Una parte identifica a la red a la cual está conectado
el sistema, y una segunda parte identifica ese sistema de la red en particular.
Las direcciones IP disponibles se colocan en clases para definir las redes grandes (Clase
A), medianas (Clase B), y pequeñas (Clase C).
Aplicar subnetting a una red significa usar la máscara de subred para dividir una red
grande o extremadamente grande en segmentos más pequeños, más eficientes y
administrables, o subredes.
Las redes usan dos técnicas básicas para asociar nombres a direcciones. Éstas son las
tablas de host y el Servicio de Nombres de Dominio (DNS).
Los protocolos importantes que componen la Suite de Protocolos TCP/IP son el
Protocolo de Resolución de Direcciones (ARP), el Internet Control Message Protocol
(ICMP), el Protocolo de Control de Transmisión (TCP), el Protocolo de Datagrama del
Usuario (UDP), el Protocolo de Configuración Dinámica del Host (DHCP), el Protocolo de
Transporte de Hipertexto (HTTP), el Protocolo de Transferencia de Archivos (FTP),
Telnet, el Protocolo de Transferencia de Correo Simple (SMTP), el Post Office Protocol
versión 3 (POP3), y el Internet Message Access Protocol (IMAP).
Un importante servicio de red es la administración remota. La información para lograr éste y otros
servicios de red se proporciona en el siguiente capítulo sobre sistemas operativos de red (NOSs).
5. Descripción general de los servicios de red
Descripción general
Este capítulo proporciona una introducción a los sistemas operativos de red (NOSs). También
trata la capacidad para acceder a un sistema remoto. Esto permite a un administrador del
sistema mantener eficientemente una red. Un servicio de directorio proporciona a los
administradores de sistemas un control centralizado de todos los usuarios y recursos en toda la
red. El alumno aprenderá otros servicios de los NOSs que permiten a los usuarios comunicarse,
compartir archivos e imprimir. También aprenderá cómo acceder a Internet, a una intranet, y a
una extranet.
5.1
Servicios de Red
5.1.1
Introducción a servicios de red/NOS
Los sistemas operativos de networking están diseñados para proporcionar procesos de red a clientes y
peers. Los servicios de red incluyen la World Wide Web (WWW), archivos compartidos, intercambio de
mail, servicios de directorio, y servicios de impresión. La administración remota es un potente servicio
que permite a los administradores configurar sistemas en red a kilómetros de distancia. Es importante
comprender que estos procesos de red se denominan servicios en Windows 2000, daemons en Linux,
y Módulos Descargables Netware (NLMs) en Novell. Esencialmente, todos ellos proporcionarán las
mismas funciones pero la forma en que se cargan e interactúan con el NOS es diferente en cada
sistema operativo. Servicios, Daemons y NLMs se tratan en más detalle en capítulos posteriores.
Dependiendo del NOS, algunos de estos procesos de red clave pueden habilitarse durante una
instalación por defecto. La mayoría de los procesos de red populares se basan en la suite de
protocolos TCP/IP. La Figura enumera algunos de los servicios basados en TCP/IP más populares.
Puesto que TCP/IP es un conjunto de protocolos abierto y bien conocido, los servicios basados en
TCP/IP son especialmente vulnerables a escaneos sin autorización y ataques maliciosos. Los ataques
de Denegación del Servicio (DoS), virus de computadora y gusanos de Internet de rápida expansión
han forzado a los diseñadores de NOSs a reconsiderar qué servicios de red se inician
automáticamente.
105
Recientes versiones de NOSs populares, como Windows 2000 y Red Hat Linux 7, restringen la
cantidad de servicios de red activos por defecto. Cuando se implementa un NOS, será necesario
habilitar manualmente algunos servicios de red clave.
5.2
Administración Remota y Servicios de Acceso
5.2.1
¿Qué es el acceso remoto?
El acceso remoto se está haciendo más importante a medida que los usuarios de red se hacen más
móviles y las compañías expanden sus negocios a múltiples locaciones o abren sus recursos a gente
de fuera seleccionada sin poner esos recursos en Internet.
Algunos usos populares del acceso remoto incluyen lo siguiente:
·
·
·
·
·
Conectar sucursales entre sí
Proporcionar un medio para que los empleados se conecten a la red después de las horas
hábiles
Permitir a los empleados teleconmutar trabajando en su casa part-time o full-time
Permitir a los empleados que se encuentran en viaje, como viajantes o ejecutivos en viajes de
negocios, conectarse a la red corporativa
Proporcionar a los clientes o socios de la compañía acceso a recursos de la red
En una economía global en expansión, incluso los pequeños negocios frecuentemente necesitan abrir
sucursales en múltiples sitios. Si estas locaciones pueden conectarse con la red de la casa central,
puede compartirse fácilmente información actualizada y los recursos pueden reunirse fácilmente.
Cuando la necesidad de acceder es infrecuente, o cuando se aplica sólo a unas pocas computadoras,
una conexión telefónica puede bastar. Luego, en la casa central, una computadora en red puede
configurarse como servidor de conexión telefónica. Los usuarios de la sucursal pueden marcar y
conectarse a la red cuando sea necesario. Para muchos empleados corporativos, el día de trabajo
rebasa las horas de trabajo normales. Los ejecutivos y otros a menudo llevan el trabajo a su casa.
Puede que sea necesario que se conecten a la red corporativa después de las horas hábiles,
especialmente si tienen que trabajar en zonas horarias diferentes.
Con una conexión de acceso remoto, los empleados pueden acceder al servidor de acceso remoto
corporativo e iniciar sesión en la red con su cuenta de usuario regular. Los empleados pueden luego
utilizar todos los recursos que estarían disponibles en la computadora de escritorio de la oficina. La
Figura ilustra cómo se logra este proceso mediante un proveedor de servicios.
106
5.2
Administración Remota y Servicios de Acceso
5.2.2
Teleconmutación
Una gran cantidad de empleados, incluyendo personal creativo, escritores técnicos, programadores de
software, vendedores y oficinistas, trabajan desde su casa todo o parte del tiempo. Estos trabajadores
teleconmutan a la oficina y permanecen en contacto todo el día mediante el e-mail, chat en vivo, e
incluso audio y videoconferencia.
La teleconmutación es atractiva para los empleados porque ahorra tiempo de viaje y otros costos
asociados con el trabajo en una oficina, como ropa de trabajo, comer afuera, y costo de transporte.
Ahorra a la compañía dinero también porque no se requiere espacio de oficina para los empleados
teleconmutadores.
El acceso telefónico es la forma más común en que los empleados teleconmutadores se conectan a la
LAN de la compañía, aunque en algunos casos, una conexión dedicada podría tener más sentido. Si
una compañía tiene muchos empleados teleconmutadores, el servidor de acceso remoto requiere
múltiples módems (un banco de módems) para que numerosas conexiones puedan efectuarse
simultáneamente. Por supuesto, cada módem requiere su propia línea telefónica separada, como lo
muestra la Figura .
5.2
Administración Remota y Servicios de Acceso
5.2.3
Usuarios móviles
Los viajes de negocios se están volviendo más prevalecientes a medida que las compañías
comercializan sus productos a escala nacional o internacional. Vendedores, reclutadores,
capacitadores, personal de gerencia de alto nivel, y otros pasan gran parte de su tiempo de viaje. Las
necesidades de los usuarios móviles son similares a las de los usuarios que se quedan después de
hora.
107
Puede ser difícil o imposible almacenar todos los archivos necesarios en una computadora laptop o
notebook. Es también una amenaza a la seguridad porque la laptop y sus contenidos puede ser robada
físicamente. Una mejor solución podría ser que los usuarios móviles se conectaran telefónicamente con
la LAN de la compañía. Aquí, como muestra la Figura , sus cuentas de usuarios se autentican, y
pueden acceder a los datos aquí en lugar de copiarlos a su propio disco rígido.
5.2
Administración Remota y Servicios de Acceso
5.2.4
Servicios de emulación de terminal
La emulación de terminal es el proceso de acceder a un escritorio remoto o servidor a través de una
terminal de computadora local (ver Figura ). La terminal local ejecuta software que emula, o imita, el
aspecto de la terminal del sistema remoto. Usando emulación de terminal, el usuario local puede tipear
comandos y ejecutar programas en el sistema remoto. El programa de emulación de terminal se
ejecuta en el sistema local como cualquier otro programa. En un sistema Windows, los usuarios
pueden ejecutar un programa de emulación de terminal en una ventana mientras se están ejecutando
aplicaciones separadas en otras ventanas.
Se requieren diferentes tipos de emulación de terminal para tipos específicos de terminales. A
continuación, algunos de los tipos de terminal comunes en networking informático:
·
·
IBM 3270
DEC VT100
108
·
·
·
AS/400 5250
TTY
xterm
La aplicación más común de la emulación de terminal es Telnet, que es parte de la suite de protocolos
TCP/IP. Telnet proporciona una interfaz de línea de comandos (CLI) que permite a los clientes acceder
a un servidor remoto. Los NOSs Windows, UNIX, y Linux soportan servicios Telnet. La utilidad xterm es
un emulador de terminal para el Sistema X Window. X Window se tratará en más detalle en el capítulo
9. Es el módulo que ejecuta la GUI en Linux. La Utilidad xterm proporciona terminales compatibles con
DEC VT102 y Tektronix 4014 para programas que no pueden utilizar el sistema de ventanas
directamente. La versión más reciente y bien soportada de xterm es la versión XFree86, no obstante
existen varias otras versiones de xterm.
Además de para administración remota, la emulación de terminal puede usarse para entregar
aplicaciones y servicios a clientes. Por ejemplo, una organización puede instalar una aplicación de alta
potencia en el servidor, y luego permitir que clientes de baja potencia accedan a la aplicación mediante
emulación de terminal. Desde el punto de vista del usuario final, la aplicación de alta potencia parece
ejecutarse localmente en la máquina cliente. En realidad, la aplicación se ejecuta en el servidor, que
probablemente tiene significativamente más potencia y RAM.
5.2
Administración Remota y Servicios de Acceso
5.2.5
Servicios Telnet
Telnet es el principal protocolo de Internet para crear una conexión con una máquina remota. Da al
usuario la oportunidad de estar en un sistema informático y trabajar en otro, que puede estar cruzando
la calle o a miles de kilómetros de distancia. Telnet proporciona una conexión libre de errores. Telnet
tiene las siguientes consideraciones de seguridad.
·
·
·
·
Hacking
Deducción de contraseñas
Ataques de Denegación de Servicio (DoS)
Packet sniffing (datos de texto visualizables)
Telnet se tratará en mayor detalle en los Capítulos 8 y 9, ya que se relaciona específicamente con
Windows 2000 y Linux. Las Figuras y ilustran un ejemplo de un usuario remoto accediendo a un
servidor Windows 2000 usando servicios Telnet.
109
5.2
Administración Remota y Servicios de Acceso
5.2.6
Configuración de acceso remoto para un cliente
Hoy, la mayor parte de las computadoras están conectadas a una red permanentemente mediante la
placa de red del sistema. Estos tipos de conexiones se efectúan asignando direcciones IP al sistema, lo
cual se trató en el Capítulo 4, "Networking TCP/IP". A veces establecer una conexión remota a una
computadora debe hacerse de otra manera cuando la computadora podría ubicarse en algún lugar no
conectado a la red. Por lo tanto, una conexión telefónica, ISDN, o conexión de banda ancha deben
usarse para conectarse a la computadora.
Protocolo Punto a Punto (PPP)
El Protocolo Punto a Punto (PPP) puede usarse para establecer un vínculo TCP/IP entre dos
computadoras, usando un módem. Una conexión PPP está diseñada para usarla sólo durante periodos
breves porque no es considerada una conexión de Internet "siempre activa". Hay, no obstante, algunos
ISPs que ofrecen vínculos PPP full-time pero éste no es un medio recomendado de efectuar una
conexión a un servidor. Alguna configuración es necesaria para iniciar y establecer una conexión PPP
en un sistema Linux. El primer paso es asegurarse de que el daemon PPP está instalado, denominado
"pppd". El daemon PPP puede tanto iniciar como responder a intentos de iniciar una conexión.
Configuración PPP basada en texto
Hay dos formas de crear una conexión PPP. Una forma de configurar PPP es usando las utilidades
PPP basadas en texto y la otra es usar el Dialer GUI. Si usa una versión basada en texto, se requiere
que primero cree una entrada en el archivo /etc/ppp/pap-secrets o /etc/ppp/chap-secrets. Las
Figuras y muestran ejemplos de estas entradas que un usuario verá en estos archivos. Para editar
estos dos archivos se usa el mismo formato y se los utiliza para proporcionar información de
autenticación entre las dos computadoras. El archivo /etc/ppp/pap-secrets usa el Protocolo de
Autenticación de Contraseñas (PAP) y el archivo /etc/ppp/chap-secrets usa el Challenge Handshake
Authentication Protocol (CHAP). Los protocolos PAP y CHAP son protocolos que presentan la
información sobre nombre de usuario y contraseña del usuario. Al editar estos archivos, un usuario
tendrá que colocar la información sobre nombre de usuario y contraseña proporcionada por el ISP. Los
usuarios también necesitarán introducir el nombre del servidor o computadora a la que se están
conectando. Este valor puede sustituirse por un asterisco (*), que significa que se conectará a cualquier
servidor o computadora. La última parte de la información que el usuario necesitará para los archivos
secrets es la dirección IP del sistema al que pppd se supone que llega cuando se conecta. Este valor
puede dejarse en blanco, lo que permitirá una conexión con cualquier dirección IP.
Crear una conexión mediante la línea de comandos también requiere modificar algunos scripts. Éstos
son ppp-on, ppp-on-dialer, y ppp-off-scripts. Los scripts pop-up y pop-up-dialer manejan las conexiones
de inicio y el script ppp-down la termina. El primer paso en modificar estos scripts es copiarlos desde el
directorio por defecto que es /usr/share/doc/ppp-2.3.11/scripts, a un directorio que se encuentra en la
110
ruta como /usr/local/bin, por ejemplo. Después de copiar estos archivos a la nueva ubicación, los
usuarios necesitarán editarlos con la información relevante a su ISP. Los pasos a llevar a cabo son:
1. En el script ppp-on, hay líneas que comienzan con TELEPHONE=, ACCOUNT=, y
PASSWORD=. Introduzca la información en estas líneas que sea relevante al ISP. La Figura
muestra un ejemplo del script de ppp-on.
2. Ubicada en el script ppp-on hay una variable que señala a la ubicación de ppp-on-dialer. La
ubicación por defecto es /etc/ppp. Si no está señalando a la ubicación correcta, cambie esta
ubicación según sea pertinente.
3. Ubicados al final del script ppp-on, busque los valores "call to pppd". Estos valores son difíciles
de interpretar pero la única información aquí que necesita verificarse es que el script esté
usando el nombre de archivo y la velocidad correctos del dispositivo módem. Normalmente los
módems serie usarán como nombre de archivo /dev/ttyS0 o /dev/ttyS1. La velocidad del
módem en la mayoría de los casos deberá ser 115200, pero 38400 es el valor por defecto.
4. A continuación, verifique el script ppp-on-dialer. Un script ppp-on-dialer de muestra aparece en
la Figura . Este script maneja la secuencia de "chateo". Será necesario modificar las últimas
dos líneas de este script con la información del ISP del usuario. Esta información es el diálogo
que es intercambiado por el módem y el ISP acerca del nombre de usuario y cuenta del usuario
al iniciar sesión en Internet. Ésta es la información que un usuario necesitará introducir en las
últimas dos líneas de este script para hacerlo funcionar. Como alternativa, si el ISP del usuario
usa PAP o CHAP, estas últimas dos líneas sólo necesitarán comentadas haciendo precederlas
con un signo numeral (#) para que no se lean al ejecutarse el script y será necesario eliminar la
barra invertida (\) de la línea de conexión.
Después de efectuar todos estos cambios, inicie sesión como raíz y tipee ppp-on desde el shell. (El
usuario podría tener que hacer preceder el comando con la ruta completa). Si los scripts fueron
editados exitosamente, entonces el sistema deberá marcar el módem y establecer una conexión.
Configuración PPP del Dialer GUI
La configuración PPP también puede efectuarse desde la GUI usando las utilidades de marcado de la
GUI. El Dialer GUI PPP que viene con KDE es el dialer KPPP. Un ejemplo del dialer KPPP se muestra
en la Figura . Para iniciar la Ventana KPPP, tipee kppp en el shell o seleccionándolo desde el menú
KDE. La primera vez que se inicia el dialer KPPP, será necesario configurarlo. Una vez introducida toda
la configuración, todo lo que es necesario una vez ejecutado el comando kppp es seleccionar el ISP de
la lista "Connect To" y luego introducir el nombre de usuario y contraseña.
111
Siga estos pasos para configurar el dialer KPPP:
1. Tipee kppp en el shell. Esto iniciará el dialer KPPP.
2. Cuando el dialer inicia, haga clic en Setup. Esto iniciará la ventana de configuración de KPPP.
Un ejemplo de ventana de configuración de KPPP se muestra en la Figura .
3. Haga clic en New. Esto creará una nueva cuenta. Note aquí que si el usuario se encuentra en
Estados Unidos, tendrá que seleccionar la opción del recuadro de diálogo y no el asistente
porque el asistente no soporta ISPs de EE.UU. Una vez seleccionada la opción del recuadro de
diálogo se abrirá el recuadro de diálogo New Account. Un ejemplo del recuadro de diálogo New
Account se muestra en la Figura .
4. En el recuadro "nombre de la conexión" tipee el nombre con el que se va a referir a esta
conexión.
5. Haga clic en Add, y luego introduzca el número telefónico del ISP, luego haga clic en OK. A
veces un ISP proporcionará más de un número que marcar. En este caso, repita este paso para
números adicionales que marcar.
6. En la solapa Authentication, seleccione el tipo de autenticación que usa el ISP, ya sea PAP o
CHAP. Luego haga clic en OK para cerrar el recuadro de diálogo New Account.
7. Por último, vea las solapa modem y device para confirmar que se haya seleccionado el
Dispositivo Módem y la velocidad de Conexión correctos.
Conexión usando ISDN
Una alternativa al uso de líneas telefónicas analógicas para establecer una conexión es ISDN. La
Figura ilustra un ejemplo de representación lógica de una conexión ISDN. ISDN tiene muchas
112
ventajas sobre el uso de las líneas telefónicas. Una de estas ventajas es la velocidad. ISDN usa un par
de líneas digitales de 64 kilobits por segundo (Kbps) para conectarse, lo cual proporciona un total de
128 Kbps de throughput. Esto es mucho mejor que usar una línea telefónica que se conecta a una
velocidad máxima de 56 Kbps, y a menudo ni siquiera llega a ser tan alta en algunas áreas. Aunque
ISDN es mejor que usar líneas telefónicas, una alternativa aún mejor a ISDN es DSL o los servicios de
cable módem. DSL y los servicios de cable módem se tratan en la siguiente sección.
En lugar de usar un módem para conectarse a una computadora remota, ISDN usa un adaptador de
terminal. El adaptador de terminal esencialmente lleva a cabo el mismo papel que juega un módem en
una conexión PPP. Establecer una conexión con el adaptador de terminal se hace de igual manera que
con un módem y una conexión PPP. Por lo tanto, simplemente siga las mismas instrucciones
delineadas en la sección anterior sobre conexiones PPP para configurar una conexión ISDN.
Un adaptador de terminal es un dispositivo externo que actúa de manera muy similar a como lo hace un
módem externo. No obstante, un usuario puede usar un dispositivo interno que se conecta a uno de los
slots PCI de la computadora. Estos dispositivos ISDN internos se denominan módems ISDN. Tenga en
cuenta que el usuario necesitará tener instalados los controladores apropiados para que el módem
ISDN funcione apropiadamente en Linux. Otra cosa importante a recordar acerca del uso de módems
ISDN es que a diferencia de los módems regulares que marcan hacia una línea telefónica, los módems
ISDN no pueden usar el nombre de archivo /dev/ttyS0. En cambio, un módem ISDN debe usar el
nombre de archivo /dev/ttyI0 y los nombres de archivos de dispositivos numerados subsecuentemente.
Conexión mediante DSL y Servicio de Cable Módem
Un medio popular de establecer una conexión remota a una computadora hoy por hoy es mediante DSL
o servicio de cable módem, o a veces simplemente denominado acceso remoto de alta velocidad o
acceso remoto por banda ancha. La Figura ilustra un ejemplo de cómo se efectúa una conexión DSL
o de Internet por cable. Este servicio aún es proporcionado por un ISP pero ofrece algunas ventajas
sobre las conexiones PPP e ISDN. En primer lugar, DSL y cable tienen velocidades mucho más altas
que PPP e ISDN. Donde PPP se conecta a un máximo de 56 Kbps e ISDN a 128 Kbps, DSL y Cable se
conectan a una velocidad de 1000 Kbps a 3000 Kbps. La velocidad variará dependiendo de varios
factores, como el tráfico en Internet. Estas velocidades de conexión más altas también permiten
transmisión de video, voz y datos digitales, no sólo datos. Las conexiones PPP e ISDN son
simplemente demasiado lentas para permitir otra cosa que no sean transmisiones regulares de datos.
Otra ventaja que permite el acceso remoto de alta velocidad es que se establece una conexión
permanente. Esto significa que la conexión puede utilizarse 24 horas al día y los usuarios no necesitan
pasar por ninguna configuración de dialer, ni siquiera tienen que introducir un comando para iniciar la
conexión. Hay dos excepciones a esta regla que se tratarán brevemente.
113
Nuevamente, al tratar con Linux, surgirán problemas de compatibilidad al utilizar un servicio de DSL o
cable módem. Estos dos problemas son la compatibilidad del hardware y el método de asignación de
direcciones IP. Los problemas de compatibilidad de hardware surgen al elegir el módem apropiado para
usar con Linux. La mayoría de los módems para DSL y cable son externos y hacen interfaz con la
computadora mediante un puerto Ethernet. Éste es el método preferido de conexión que será el más
compatible con un sistema Linux. No obstante, algunos módems DSL o cable externos usan una
interfaz USB. Por otro lado, pueden ser módems internos. Usar estos dos tipos de módems DSL y cable
requieren el uso de controladores especiales en un sistema Linux que son raros y difíciles de hallar.
Hay cuatro formas en que un ISP de banda ancha asignará direcciones IP. Éstas son con una dirección
IP estática, DHCP, PPP sobre Ethernet (PPPoE), o PPP sobre ATM (PPPoA). Si el ISP proporciona al
usuario un módem incompatible, la mejor idea es reemplazarlo con uno que sea compatible. Si el ISP
del usuario usa PPPoE o PPPoA, el usuario tendrá que introducir configuración para establecer la
conexión. El usuario también tendrá que introducir comandos en el shell para iniciar la conexión y
terminar la conexión. El comando asdl-start iniciará la conexión y el comando asdl-stop la terminará.
5.2
Administración Remota y Servicios de Acceso
5.2.7
Control de los derechos del acceso remoto
Al configurar un servidor para acceso remoto, es importante mantener una estricta política de derechos
de acceso. Ésta puede ser una importante operación de administración de redes. El sistema operativo
Linux proporciona muchas opciones que elegir al controlar los derechos de acceso remoto. Al
configurar los controles de acceso remoto, es una buena idea usar una combinación de al menos dos
de estas opciones. La razón para esto es que si uno fallara o pasara a inactividad siempre habrá un
respaldo.
Firewalls
Un firewall actúa como barrera entre una red, como Internet por ejemplo, y otra. Esta otra red podría ser
la red de la cual está a cargo el usuario para controlar su seguridad. El firewall se coloca en medio de
donde estas dos redes hacen interfaz, bloqueando así el tráfico no deseado. Se puede configurar un
firewall en una variedad de formas diferentes. Una de las formas tradicionales es instalar un router que
pueda bloquear y controlar el tráfico no deseado que entra y sale de una red. Otros tipos de firewalls
incluyen firewalls externos dedicados como Cisco PIX Firewall, o sólo una computadora común
actuando como firewall.
Todo el tráfico de la red que fluye hacia dentro y fuera de ella lo hace usando puertos. Un firewall de
filtro de paquetes restringe el tráfico basándose en estas asignaciones de puertos. Este tipo de firewall
examina el número de puerto del origen y el destino y la dirección IP del origen y el destino. Por
ejemplo, si un servidor Samba está funcionando en la red interna, el administrador configuraría el
firewall para bloquear el puerto usado por Samba en el firewall. Esto evitaría cualquier acceso
indeseado al servidor de un hacker malicioso de fuera de la red.
114
Tal como se mencionó previamente, el sistema operativo Linux por sí mismo puede configurarse para
proporcionar servicios de firewall. Linux usa las herramientas ipfwadm, ipchains, e iptables para
configurar funciones de firewalls. Las funciones de firewall pueden configurarse manualmente, usando
una herramienta de configuración GUI, o mediante un sitio web.
Manualmente
Si un usuario decidiera configurar el sistema Linux como firewall, se recomienda que el usuario primero
lea acerca del tema. Existen libros completos que tratan este tema y puede ser muy difícil hacerlo.
Involucra escribir scripts, lo cual puede ser complicado y podría resultar en que el firewall no funcione
apropiadamente.
Herramienta de Configuración GUI Algunas de las herramientas de configuración de la GUI que
pueden usarse para la configuración del firewall son Firestarter (http://firestarter.sourceforge.net) o
Guarddog (http://www.simonzone.com). Las últimas distribuciones de Linux están siendo entregadas
ahora con estos programas. Estas herramientas permiten un medio mucho más fácil de controlar
puertos de red así como protocolos de cliente y servidor que un usuario desearía controlar. Estas
herramientas también generan los scripts para los usuarios que pueden ejecutarse automáticamente
cuando el sistema arranca.
Configuración del Sitio Web
Una herramienta de configuración del sitio web funciona como las herramientas de configuración GUI y
permite a los usuarios introducir la información necesaria en el sistema, y el sitio web genera los scripts
para firewall para ellos.
TCP Wrappers
TCP Wrappers se usa en conjunción con inetd. Tenga en cuenta que inetd ya no se usa con Linux
Mandrake o Red Hat. Estas dos distribuciones usan xinetd. TCP Wrappers usa un programa llamado
tcpd. Sin tcpd ejecutándose un servidor llamaría a otro directamente con inetd. Cuando se usa el
programa tcpd, el programa inetd llama a tcpd primero. El programa tcpd verificará primero para ver si
el cliente está autorizado a acceder al servidor y si lo está, entonces el programa tcpd permitirá al
cliente acceder al servidor.
Existen dos archivos que se usan para configurar TCP Wrappers, /etc/hosts.allow y /etc/hosts.deny.
Las Figuras y muestra ejemplos de estos dos archivos. Editando estos archivos y agregando
nombres de host a los archivos, los usuarios pueden permitir o denegar acceso al sistema. Los
nombres de host introducidos en el archivo hosts.allow especifican a qué sistemas se le permite
obtener acceso al sistema. Si se hace un intento de acceder al sistema y el nombre de host no se ha
introducido en el archivo hosts.allow, entonces se le niega acceso. Por el contrario, a los nombres de
host introducidos en el archivo hosts.deny se les niega acceso al sistema.
Las entradas de estos archivos consisten en líneas como la siguiente:
115
·
·
·
·
·
daemon-list: client-list daemon-list especifica los nombres de los servidores que aparecen en
/etc/services. Éstos son los servidores/servicios a los cuales se otorgará o denegará el acceso.
client-list especifica a qué clientes se otorga o denega acceso al servidor en la daemon-list
correspondiente. Las entradas de client-list pueden ser por nombre de host o por dirección IP.
Xinetd Tal como se mencionó antes, las Distribuciones Mandrake y Red Hat de Linux ya no
usan inetd ni TCP Wrappers. En cambio usan xinetd. Mandrake y Red Hat controlan el acceso
editando el archivo /etc/xinetd.conf. La Figura muestra un ejemplo del archivo xinetd.conf.
Estos recortes que se hacen en el archivo xinetd.conf hacen llamadas a otros archivos
ubicados en el directorio /etc/xinetd.d. La Figura enumera algunos de los daemons que hay
en el directorio /etc/xinetd.d. Estos archivos se encuentran en el directorio /etc/xinetd.d y son
lo que controla el acceso a los diferentes daemons que se ejecutan en el sistema. La
configuración se efectúa servidor por servidor usando los parámetros bind, only_from, y
no_access.
Bind Esto le indica a xinetd que escuche sólo a una interfaz de red para el servicio. Por
ejemplo, agregar la entrada bind = 10.2.5.1 al archivo hará que el router sólo escuche a esa
dirección de placa Ethernet específica de la red.
only_from Esto funciona de manera similar al archivo hosts.allow porque un usuario puede
especificar una dirección IP, direcciones de Red, o nombres de host en esta línea para permitir
conexiones sólo de esas entradas particulares enumeradas en el archivo.
no_access Esto funciona de manera similar al archivo hosts.deny en el hecho de que a las
entradas enumeradas en esta línea se les denegará acceso al servidor.
Contraseñas
Las contraseñas son un método muy útil de controlar el acceso remoto a un servidor. Las contraseñas
son muy útiles cuando quien tiene acceso a servidores tales como e-mail, FTP, y Telnet por ejemplo.
Imponer una contraseña obliga al usuario a autenticarse de alguna forma ante los servidores para
obtener acceso a los recursos del servidor.
Aunque las contraseñas pueden ser un medio eficaz de evitar el acceso a un servidor, también tienen
algunos problemas de seguridad que deben conocerse. A menos que las contraseñas se envíen en
forma cifrada, se puede correr el riesgo de que un usuario experimentado pueda leerlas. Los protocolos
FTP, POP, IMAP, y Telnet envían información sobre contraseñas en forma cifrada por defecto, otros no.
Hay formas, no obstante, de cifrar seguramente las contraseñas e incluso los datos. Un método
semejante es mediante el uso del protocolo SSH. El protocolo SSH está diseñado para ser seguro y
evita que una contraseña se use incluso si es interceptada.
SSH proporciona otro medio de proporcionar una autenticación segura a un servidor. SSH es capaz de
almacenar una clave especial en el servidor y una en el cliente. El cliente usa su clave, y no una
contraseña, para autenticar al servidor. Aunque esta configuración proporciona un medio seguro de
116
autenticación, hay algunos riesgos de seguridad involucrados también. Por ejemplo, si por alguna razón
un intruso obtuviera acceso a la computadora cliente de un usuario, podría obtener acceso al servidor.
También es importante la mención de los "r-commands" al tratar la autenticación de contraseñas. Los
"r-commands" son los comandos rlogin, rsh, y rcp. Estos comandos permiten a un usuario en un
sistema UNIX o Linux iniciar sesión, ejecutar programas, y copiar archivos hacia y desde otro sistema
UNIX o Linux sin tener que autenticarse. Esto se logra creando un archivo rhosts en el directorio home
del usuario. Este archivo contiene listas de otros hosts en los que se confía. Estos hosts en los que se
confía pueden obtener acceso a un servidor sin tener que ser autenticados. Nuevamente, puede haber
algún problema de seguridad al utilizar esta forma de autenticación y deberá tenerse particular cuidado
al determinar en qué hosts se confiará.
Permisos de Archivos
Los permisos de archivos pueden ser útil para otorgar acceso general a los archivos o a ciertos
directorios sin tener que especificar ningún usuario en particular. Básicamente, cualquiera puede iniciar
sesión y obtener acceso al servidor. No obstante, los permisos de archivos pueden limitar a qué
archivos o directorios se tendrá acceso. Por ejemplo, si hubiera un servidor FTP, Telnet o SSH al que la
gente necesitara acceder, el administrador podría especificar un directorio o un grupo de directorios a
los que estos usuarios tuvieran acceso una vez iniciada la sesión. Un ejemplo mejor aún sería permitir
un acceso anónimo a un servidor FTP. El control de acceso anónimo especifica que cualquiera puede
obtener acceso al servidor pero sólo se podrá acceder a los directorios y archivos en particular para los
que tengan los permisos de archivo apropiados.
5.2
Administración Remota y Servicios de Acceso
5.2.8
Administración remota a un sistema Linux
Un beneficio de usar el sistema operativo Linux en un servidor es que proporciona muchas formas de
administrar remotamente el sistema. Esta es la razón por la cual es tan importante controlar los
derechos de acceso. Al igual que sucede con cualquier tipo de acceso remoto a un sistema, existen
riesgos de seguridad que es necesario tratar. Muchos de ellos se trataron en la sección anterior. No
obstante, la administración remota puede ser muy conveniente y también necesaria en algunos casos.
Linux proporciona varias herramientas para la administración remota. Estas incluyen, inicios de sesión
en modo texto, inicios de sesión en GUI, transferencias de archivos y protocolos de administración
remota dedicados.
Inicios de Sesión en Modo Texto
Un inicio de sesión en modo texto consiste en iniciar sesión en un sistema mediante Telnet o SSH. Un
usuario puede usar Telnet o SSH para administrar remotamente el servidor Linux desde cualquier
sistema operativo como Mac OS o Windows por ejemplo. No tiene por qué ser un sistema operativo
Linux. Esto se hace normalmente iniciando sesión con una cuenta de usuario regular y luego usando el
comando su con la contraseña raíz para obtener privilegios de superusuario. En este punto, los
usuarios realmente pueden hacer cualquier cosa que pudieran hacer desde el prompt del shell en la
consola principal.
La sintaxis de comandos correcta para utilizar Telnet en Linux es telnet hostname, donde hostname
es el nombre DNS del sistema al que el usuario está intentando obtener acceso. La Figura ilustra un
ejemplo del comando telnet que se está utilizando.
117
SSH funciona igual, no obstante no utiliza el prompt login:. Los usuarios no necesitan especificar un
nombre de usuario o contraseña. En cambio SSH pasa el nombre de usuario actual al sistema al que el
usuario está intentando acceder remotamente para autenticar el usuario. No obstante, el usuario puede
iniciar sesión a un servidor SSH con un nombre de usuario y contraseña diferentes utilizando el
parámetro -l username. La salida es como sigue: (note que en la siguiente salida hostname representa
el nombre DNS del sistema remoto).
$ ssh hostname -l jsmithjsmith@hostname password: Last login: Wed Feb 18 08:34:23 2002 from
hostname [jsmith@hostname jsmith]$
Una vez que el usuario ha obtenido acceso al sistema exitosamente, puede hacer prácticamente todo
lo que puede hacerse desde un prompt de shell en la consola principal.
Para administrar remotamente un servidor Linux mediante una sesión GUI, en primer lugar los usuarios
necesitarán instalar algún software en los sistemas desde el cual están intentando administrar
remotamente. El software que tendrán que instalar es X server. Si están haciendo el intento desde un
sistema Linux, X server ya debería estar instalado. Los usuarios también pueden usar un sistema
Windows con X server instalado en él para administrar un servidor Linux mediante una GUI. Al igual
que con Telnet y SSH, una vez que los usuarios han iniciado sesión, pueden usar el comando su con
la contraseña raíz para adquirir los privilegios del raíz.
Transferencias de Archivos
En general, la transferencia de archivos no es lo que una persona podría llamar administración remota.
No obstante, es de hecho una forma para editar y configurar archivos remotamente. Una herramienta
de transferencia de archivos como FTP puede utilizarse para transferir archivos de un sistema a otro,
editarlos, y luego volver a enviarlos. Por ejemplo, un usuario podría tener un servidor Linux que esté
configurado como servidor de impresora. Puesto que este servidor es un servidor de impresora, podría
no tener las herramientas apropiadas de edición y configuración necesarias para editar archivos en el
servidor de impresora, lo cual haría que hacer telnet al servidor careciera de sentido. Si FTP, NFS, o
Samba estuvieran instalados en el servidor de impresora, entonces un usuario podría iniciar sesión en
el servidor de impresora remotamente y transferir el archivo a un sistema que tuviera las herramientas
de edición y configuración apropiadas, editar el archivo, y volver a transferirlo al servidor de impresora.
Tenga en cuenta, no obstante, que no se recomienda otorgar acceso directo al directorio destino de los
archivos de configuración, como el directorio /etc usando NFS o Samba. Esto hace más fácil transferir
el archivo a la ubicación correcta pero puede dejar al servidor vulnerable a ataques. En cambio, la
mejor práctica sería transferir el archivo usando una cuenta de usuario general que colocara al archivo
en el directorio home de la cuenta de ese usuario. Luego use un protocolo de inicio de sesión remoto
como SSH para copiar el archivo al directorio apropiado.
118
Protocolos de Administración Remota
Linux proporciona varias herramientas para habilitar a un administrador para que administre
remotamente una computadora. Para lograrlo, el usuario necesitará instalar la versión del servidor de
estas herramientas en la computadora cliente, que es la computadora que el usuario planea administrar
remotamente. El usuario necesitará instalar la versión cliente de la herramienta en particular que se usa
en la computadora en la que el usuario planea usar para hacer la administración. La mayoría de estas
herramientas usan navegadores web como medio de hacer la administración remota, lo cual es útil en
un entorno que tiene múltiples sistemas operativo como Macintosh o Windows. El sistema no necesita
ser un sistema Linux para administrarlo remotamente desde un sistema Linux. Algunas de estas
herramientas son:
·
·
·
SNMP
Samba Web Administration Tool (SWAT)
Webmin
SNMP
Este protocolo se tratará en detalle en capítulos posteriores. Es importante notar aquí no obstante que
ésta nunca ha sido la herramienta de administración remota preferida para sistemas Linux como lo ha
sido en el entorno Windows. La razón es que requiere mucha configuración complicada en los sistemas
que deben administrarse.
Samba Web Administration Tool (SWAT)
Esta herramienta es una herramienta basada en la web que se usa para administrar un servidor
Samba. Después de configurar SWAT, los usuarios pueden acceder al servidor remotamente usando
un navegador web. SWAT usa el puerto 901 y para acceder a la página de administración de SWAT,
los usuarios tipearían el URL del servidor al que desean acceder remotamente, seguido del puerto 901.
Por ejemplo, los usuarios tipearían http://cisco-flerb.cisco.com:901. La Figura proporciona un
ejemplo de la página de SWAT. Tenga en cuenta que SWAT sólo permite a los usuarios administrar las
funciones Samba del servidor. Los usuarios no podrán llevar a cabo ninguna otra tarea de
administración con SWAT. No obstante, los usuarios tendrán un control completo de Samba en el
servidor remoto.
Webmin
Webmin, como el nombre lo implica, es otra herramienta de administración remota basada en web.
Webmin fue diseñada teniendo como concepto principal que pueda ser usada en todas las
distribuciones de Linux así como en sistemas UNIX. Cuando se instala Webmin, se instalan archivos de
configuración específicos de esa distribución de Linux o UNIX en particular. Webmin usa el puerto
10000. Para acceder a la página de administración de Webmin, los usuarios tipearían el URL del
119
servidor al que desean acceder remotamente, seguido por el puerto 10000. Por ejemplo tipee
http://cisco-flerb.cisco.com:10000.
rmon y ssh
Remote Monitoring (RMON) es una especificación de monitoreo estándar que permite a varios
monitores de red y sistemas de consola intercambiar datos de monitoreo de red. Secure Shell (SSH) es
probablemente la más popular herramienta de administración remota para Linux. SSH ofrece acceso
de línea de comando mediante un túnel encriptado que proporciona más seguridad que telnet. Muchas
distribuciones de Linux vienen con un servidor SSH ya instalado. Al igual que con cualquier
herramienta, deben instalarse patches y colocarse restricciones para evitar que usuarios no
autorizados usen el servicio. Una vez que tenga instalado un servidor SSH, configurarlo es muy fácil.
Existen un par de configuraciones importantes que deberá ordenar para minimizar el riesgo,
incluyendo:
·
·
PermitRootLogin Este valor deberá configurarse a No, puesto que nunca deberá iniciarse
sesión en la raíz remotamente. Si desea administrar la caja, cree un usuario normal y entre con
SSH con esa cuenta. Una vez dentro, puede usar el comando su para iniciar sesión como raíz.
X11 Forwarding Este valor se utilizará para obtener una conexión gráfica. Si sólo desea usar
la consola, puede configurar este valor a No; de otro modo, configúrelo a Sí.
Si no tiene instalado un servidor SSH, puede utilizar su instalador RPM de la distribución Linux para
hacerlo funcionar. Una vez logrado eso, conectarse es muy simple. Primero, es necesario que obtenga
un cliente. Un cliente SSH fácil y gratuito es PuTTY, que puede descargar del sitio web de PuTTY
ubicado en el vínculo web de más abajo. PuTTY es una utilidad de cliente ssh que le permite
conectarse a sistemas remotos usando diversos protocolos, incluyendo SSH y Telnet. Configurar
PuTTY es muy fácil. Para conectarse a un sistema remoto, todo lo que tiene que hacer es completar el
nombre de host o dirección IP a la cual conectarse, y seleccionar SSH para el tipo de conexión, como
lo muestra la Figura .
5.3
Servicios de Directorio
5.3.1
¿Qué es un servicio de directorio?
A medida que las intranets continúan creciendo de tamaño, las complejidades de estas redes también
crecen rápidamente. Las modernas intranets pueden contar con miles de usuarios, y cada uno de ellos
necesita diferentes servicios y diversos niveles de seguridad en la red. La tarea de administrar este
desafío logístico ha crecido más allá de la capacidad del NOS por sí solo. Muchos administradores de
sistemas usan ahora "servicios de directorio" para suplementar las herramientas de administración de
un NOS. La Figura muestra los conceptos básicos respecto a cómo se construye un servicio de
directorio. El objeto superior en un directorio, que contiene a todos los otros objetos, se denomina
objeto "raíz".
120
Un servicio de directorio proporciona a los administradores de sistema un control centralizado de todos
los usuarios y recursos en toda la red. Proporciona a un administrador la capacidad de organizar
información. Ayuda a simplificar la administración de la red proporcionando una interfaz estándar para
tareas de administración de sistema comunes. Esta función es importante cuando una red grande está
ejecutando varios sistemas operativos y diversos protocolos de red. Con un único servicio de directorio,
el administrador de red puede administrar centralmente todos esos recursos con un conjunto definido
de herramientas en lugar de atender manualmente cada dispositivo por separado. Estos servicios de
directorio pueden ser locales, lo cual significa que están restringidos a una única máquina o la
información del directorio puede estar diseminada en varias máquinas. Esto se denomina base de
datos de directorio distribuida.
En el mundo informático, un directorio puede ser algo diferente. Los alumnos probablemente están
familiarizados con el término "directorio" en lo que se refiere a los sistemas de archivos de
computadora, en los cuales un directorio es una colección de archivos agrupados bajo un nombre
identificatorio. Los servicios de directorios usados por un NOS son diferentes pero son conceptos
relacionados. En este contexto, un directorio es un tipo especial de base de datos. Puede contener
variados tipos de información.
Beneficios del Uso de una Estructura de Directorio
Los beneficios de usar servicios de directorio en una red incluyen:
·
·
·
Los datos pueden ser fácilmente organizados.
Los datos pueden ser fácilmente asegurados.
Los datos pueden ser fácilmente localizados y accedidos.
Hay ventajas en usar servicios de directorio para acceder a los recursos de la red. Tradicionalmente,
los archivos y carpetas compartidos se almacenaban en las unidades de disco rígido de estaciones de
trabajo individuales o servidores de archivos. Para conectarse a los archivos compartidos, el usuario
necesitaba saber dónde estaban ubicados.
Un servicio de directorio elimina este requisito. Los recursos compartidos se publican en el directorio.
Los usuarios pueden localizarlos y acceder a ellos sin siquiera saber en qué máquina residen
físicamente los recursos. La Figura ilustra cómo está pensado que funcione este proceso. Los
archivos, directorios y compartidos a los que los usuarios acceden desde un único punto pueden
distribuirse a través de varios servidores y ubicaciones usando servicios de directorio distribuido y
replicación. Los siguientes dos métodos pueden usarse para buscar en todo el directorio distribuido
desde una única ubicación.
121
·
·
Buscar en la Red de Microsoft Windows de manera tradicional Buscar en cada máquina
individual para localizar los archivos compartidos.
Buscar en el Directorio Esta opción muestra todos los recursos publicados en el Active
Directory. La Figura ilustra cómo usar el Microsoft Windows Explorer para buscar en el
directorio.
5.3
Servicios de Directorio
5.3.2
Estándares del servicio de directorio
Es necesario conformarse a un estándar al crear directorios distribuidos. Para operar dentro de un
NOS, diferentes servicios de directorio necesitan tener un método común de nombrar y hacer
referencia a los objetos. Sin estos estándares, cada aplicación tendría que usar su propio directorio,
que requiere más espacio en disco. Además, los productos de un fabricante pueden no usar las bases
de datos compiladas por los productos de otro fabricante. Sin estos estándares, sería imposible tener
una estructura de directorio funcional. Los fabricantes de servicios de directorio que cumplen con los
estándares diseñan sus servicios para que sean compatibles con un amplio rango de plataformas y con
otros servicios de directorio.
X.500
X.500 define los estándares del Servicio de Directorio Electrónico (EDS). Los servicios de directorio
descritos en X.500 están diseñados para trabajar en conjunción con servicios de mensajería X.400.
Un directorio que cumpla con X.500 tiene tres componentes principales:
122
·
·
·
Agente del Sistema de Directorios (DSA) Administra los datos del directorio
Agente del Usuario del Directorio (DUA) Otorga a los usuarios acceso a servicios de
directorio
Base de Información de Directorio (DIB) Actúa como el almacén central de datos, o base de
datos, en la cual se guarda la información del directorio
Los estándares X.500 tratan cómo se almacena la información en el directorio y cómo los usuarios y
sistemas informáticos acceden a esa información. La seguridad de los datos, el modelo de nombrado, y
la replicación de datos del directorio entre servidores está todo definido en X.500.
Las especificaciones X.500 definen la estructura del directorio como un árbol invertido, y la base de
datos es jerárquica. Un servicio de directorio que cumpla con X.500 usa el Protocolo de Acceso al
Directorio (DAP), que se trata a continuación.
DAP y LDAP
DAP permite que el DUA se comunique con el DSA. DAP define el medio mediante el cual el usuario
puede buscar en el directorio para leer, agregar, borrar, y modificar entradas del directorio.
DAP es un protocolo potente, pero la sobrecarga asociada es alta. El Protocolo de Acceso al Directorio
Liviano (LDAP) fue desarrollado como un subconjunto de DAP para simplificar el acceso a directorios
tipo X.500. LDAP se ha convertido en un estándar popular porque integra directorios de diferentes
fabricantes. LDAP está diseñado para usar menos recursos de sistema que DAP, y es más fácil de
implementar. La versión actual de LDAP es LDAPv3.
LDAPv3 ofrece varias mejoras importantes sobre versiones anteriores de LDAP. La mejora a la
seguridad es un foco principal de la nueva versión. LDAPv3 soporta cifrado Secure Sockets Layer
(SSL) entre cliente y servidor y habilita la autenticación de certificados X.509.
LDAPv3 también habilita al servidor para que refiera al cliente LDAP a otro servidor si no es capaz de
responder a la consulta del cliente. La Figura ilustra un ejemplo de un servicio de directorio DAP y
LDAP típico.
5.3
Servicios de Directorio
5.3.3
Active Directory de Windows 2000
Con el lanzamiento de Windows 2000 Server, Microsoft hizo cambios fundamentales en sus
componentes de networking que son incluso más drásticos que aquéllos efectuados por Novell en la
transición de NetWare 3 a 4. El Active Directory es central a estos cambios. Donde el Novell NDS
funciona como servicio que funciona con el NOS, el NOS, el Microsoft Active Directory funciona como
123
aplicación profundamente integrada al sistema operativo. Las siguientes secciones tratan la estructura
de la base de datos Active Directory, integración de Active Directory, e información de Active Directory.
Estructura de la Base de Datos de Active Directory
La información de Active Directory se almacena en tres archivos:
·
·
·
Base de Datos de Active Directory
Archivos de Registro de Active Directory
Volumen de Sistema Compartido
La base de datos es el directorio. Los archivos de registro toman nota de los cambios efectuados en la
base de datos. El Volumen de Sistema Compartido (llamado Sysvol) contiene scripts y objetos de
política de grupo en los controladores de dominio de Windows 2000. La Política de Grupo es el medio
por el cual los administradores de Windows 2000 controlan los escritorios de los usuarios, implementan
aplicaciones automáticamente, y configuran los derechos de los usuarios.
Dominios de Windows 2000
La estructura lógica del Active Directory se basa en unidades llamados Dominios. Aunque se usa la
misma terminología, los dominios en Windows 2000 funcionan de manera diferente a los de Windows
NT. Tanto en Windows NT como en Windows 2000, un dominio representa un límite de seguridad y
administrativo, así como una unidad de réplica. No obstante, Windows NT usa una estructura de
dominio plana, y Windows 2000 dispone los dominios en árboles de dominio jerárquicos.
El concepto de árbol jerárquico funciona de manera diferente en Active Directory que en NDS. NDS no
divide la red en dominios. Las redes Windows 2000 pueden tener múltiples dominios, organizados en
árboles de dominio. Adicionalmente, a estos árboles pueden unírseles otros árboles para formar
bosques. La Figura muestra una estructura de dominio de Windows 2000 con dos árboles de
dominio (con los dominios raíz shinder.net y tacteam.net) unidos en un bosque. Un bosque es el
término que usa Microsoft para llamar a una colección de los árboles de un dominio enteramente
diferente que se incluyen en la estructura jerárquica de Active Directory.
Unidades de Organización (OUs) de Windows 2000
Active Directory, como NDS, usa Unidades de Organización (OUs) para organizar los recursos dentro
de los dominios. La autoridad administrativa puede delegarse a OUs individuales. Por el contrario, el
networking de NT permite la asignación de privilegios administrativos sólo al nivel del dominio.
Active Directory y DNS
Active Directory usa convenciones de nombrado DNS y es dependiente de DNS para operar. Debe
124
haber un servidor DNS en cada red Windows 2000. Además, las actualizaciones de información de la
zona DNS puede integrarse con la replicación de Active Directory, que es más eficiente que los
métodos de actualización DNS tradicionales.
Windows 2000 soporta DNS Dinámico (DDNS), que permite la actualización automática de la base de
datos DNS.
Servidores Active Directory
Para usar Active Directory, al menos un servidor debe configurarse como Controlador de Dominio (DC).
Se recomienda que haya al menos dos DCs en cada dominio, para tolerancia de fallos. Configurar el
primer controlador de dominio en la red crea el directorio para ese dominio.
A diferencia de los servidores Windows NT, los Servidores Windows 2000 que ejecutan Active
Directory, no tienen un controlador de dominio principal (PDC) o controlador de dominio de respaldo
(BDC). En los dominios Windows NT, sólo el PDC contenía una copia completa de lectura/escritura del
directorio de cuentas de usuario e información de seguridad. El PDC autenticaría los nombres de
usuario y contraseñas cuando los miembros iniciaran sesión en la red. El BDC mantendría una copia
de respaldo de sólo lectura del directorio master del PDC y por lo tanto cualquier cambio necesitaría
efectuarse en el PDC. Los servidores Windows 2000 que ejecutan Active Directory toman el concepto
de controlador de dominio de manera un tanto diferente. A diferencia de Windows NT Server, donde un
PDC debe ser accesible para efectuar cambios en el directorio, Windows 2000 Server se basa en el
modelo de replicación multimaster de Active Directory para actualizar todos los controladores de
dominio dentro del Bosque cuando se hace un cambio en cualquier otro controlador de Dominio. No
hay PDC o BDC. Todos los controladores de dominio son iguales. Todos los Controladores de Dominio
contienen una copia de lectura/escritura de la partición del Active Directory. Esta información se
mantiene actualizada y sincronizada mediante el proceso de replicación. Este proceso se trata en la
siguiente sección de este capítulo.
Replicación del Active Directory
Replicación es el proceso de copiar datos de una computadora a una o más computadoras y
sincronizar esos datos para que sean idénticos en todos los sistemas.
Active Directory usa replicación multimaster para copiar información del directorio entre los
controladores de dominio de un dominio. Pueden efectuarse cambios en cualquier controlador de
dominio, y esos cambios luego se replican a los otros, excepto durante el desempeño de una operación
de master único.
Los administradores de Windows 2000 pueden establecer políticas de replicación que determinen
cuándo y cuán a menudo tiene lugar la replicación de directorios. Esto permite el uso óptimo del ancho
de banda de la red. Controlar el cronograma de replicaciones es especialmente importante cuando los
controladores de dominio están ubicados en lados opuestos de un vínculo lento, como un vínculo WAN
de 56K.
Seguridad de Active Directory
Cada objeto de Active Directory tiene una Lista de Control de Acceso (ACL) que contiene todos los
permisos de acceso asociados con ese objeto. Los permisos pueden ser explícitamente permitidos o
denegados, granularmente.
Existen dos tipos diferentes de permisos:
1. Permisos asignados Permisos explícitamente otorgados por un usuario autorizado.
2. Permisos heredados Permisos que se aplican a objetos hijos porque fueron heredados de un
objeto padre.
Los permisos pueden asignarse a un usuario individual o a un grupo de usuarios. Windows 2000
permite a los administradores controlar este proceso. Note el recuadro de verificación en la parte
125
inferior de la hoja de propiedades de seguridad del objeto en la Figura
.
Compatibilidad de Active Directory
Active Directory depende del sistema operativo y se ejecuta sólo en servidores Windows 2000. Puesto
que Active Directorio es compatible con LDAP, puede accederse a los servicios y la información o
intercambiarse con otros servicios de directorio LDAP. Microsoft también proporciona herramientas
para migrar información desde otros directorios, como NDS, a Active Directory.
5.3
Servicios de Directorio
5.3.4
Servicio de Información de Red (NIS)
Linux usa su propia versión de Servicios de Directorio llamada Servicio de Información de Red (NIS).
NIS proporciona un simple servicio de búsqueda que consiste en bases de datos y procesos. NIS es un
servicio que proporciona la información requerida en todas las máquinas de la red. Hay soporte para
NIS en la librería libc estándar de Linux, al que se denomina "NIS tradicional". NIS, a diferencia de
Active Directory de Windows, puede instalarse por defecto cuando se instala el Sistema Operativo. No
obstante, esta opción sólo está disponible en determinadas distribuciones. NIS es un Daemon al que
hay que cargar después de instalado el sistema operativo. Configurar NIS en el sistema permitirá al
Servidor Linux obtener información acerca de cuentas de usuario, cuentas de grupo, sistemas de
archivos, y otras bases de datos ubicadas en otros servidores de toda la Red.
NIS funciona de manera muy similar para Linux, como NDS lo hace para Novell y Active Directory lo
hace para Windows. Un sistema que usa NIS podrá acceder a los archivos y a información de cualquier
sistema de la Red. Para establecer correctamente esta relación, NIS a menudo trabajará en conjunción
con el Sistema de Archivos de Red (NFS). NFS ejecutado en Linux permite a un usuario montar
sistemas de archivos que pueden ubicarse en cualquier servidor de la Red a un directorio local del
usuario.
La Estructura de NIS
En una configuración de NIS, la red consistirá en el servidor NIS, esclavos y clientes. El servidor NIS es
donde la base de datos de NIS se crea y mantiene. Los esclavos NIS actúan igual que los servidores
NDS actúan en Novell. Las bases de datos NIS se copian a todos los servidores esclavos NIS. Los
esclavos son entonces capaces de proporcionar información de directorios NIS a los clientes, pero
cualquier cambio efectuado a la base de datos debe llevarse a cabo en el servidor NIS. Los clientes
NIS son los sistemas que solicitarán información sobre la base de datos de los servidores y esclavos.
Los esclavos NIS llevan a cabo Equilibrio de la Carga para los servidores NIS. La Figura muestra un
ejemplo de la disposición lógica de una topología NIS Linux.
126
Configuración de NIS en un Cliente
Si un usuario está configurando NIS durante la instalación de Linux, entonces todo lo que se necesitará
es seleccionar la opción cuando se presente. Luego el usuario tendrá que seleccionar el nombre de
dominio de NIS así como la dirección IP del servidor NIS. Es importante notar que el nombre de
dominio de NIS no es necesariamente el mismo que el nombre de dominio DNS. Para configurar NIS
después de instalar Linux, el usuario usa la utilidad linuxconf para configurar un cliente NIS. La Figura
muestra un ejemplo de la utilidad linuxconf. En este punto, el usuario necesitará introducir el nombre
de dominio NIS y la dirección IP del servidor NIS.
yppassword e ypinit
El comando yppasswd cambia la contraseña de red asociada con el usuario username en la base de
datos del Servicio de Información de Red (NIS+). yppasswd pide la antigua contraseña NIS, y luego la
nueva. Se debe tipear la antigua contraseña correctamente para que el cambio tenga efecto. No se
recomienda el uso de yppasswd, ya que ahora es sólo un vínculo al comando passwd, que es el que
debería usarse en cambio. Usar passwd con la opción -r nis logrará los mismos resultados, y será
consistente en todos los servcios de nombre diferentes disponibles. La contraseña de los Servicios de
Información de Red (NIS) puede ser diferente de una de su propia máquina. En esta instancia se
utilizaría el comando yppasswd en lugar del comando passwd. Los usuarios raíz de un servidor NIS
pueden cambiar la contraseña de otro usuario sin conocer la contraseña original del usuario. Para ello,
el usuario Raíz introduce su contraseña en lugar de la contraseña original del usuario. La yppasswd.
127
Tenga en cuenta que el daemon yppassword debe estar ejecutándose para que los usuarios puedan
usar el comando yppasswd. El daemon yppasswdd es un servidor que recibe y ejecuta solicitudes de
nuevas contraseñas del comando yppasswd. Estas solicitudes requieren el daemon para verificar la
antigua contraseña del usuario y cambiarla. El daemon cambia la contraseña en el archivo que se
especifica en el parámetro FileName, que tiene el mismo formato que el archivo /etc/passwd. Para
hacer posible la actualización del mapa de contraseñas del Servicio de Información de Red (NIS) desde
máquinas remotas, el daemon yppasswdd debe ejecutarse en el servidor master que contiene el mapa
de contraseñas NIS. El daemon yppasswdd no se ejecuta por defecto, ni puede iniciarse desde el
daemon inetd como otros daemons Llamada de Procedimiento Remoto (RPC). El daemon yppasswdd
puede iniciarse y detenerse con los siguientes comandos Controlador de Recursos del Sistema (SRC):
·
·
startsrc -s yppasswdd
stopsrc -s yppasswd
El comando ypinit configura mapas NIS en un servidor master de Servicios de Información de Red
(NIS) o servidor esclavo NIS. Sólo los usuarios con autoridad de usuario raíz pueden usar el comando
ypinit. La sintaxis de comandos para usar el comando ypinit es la siguiente:
·
·
/usr/sbin/ypinit [ -o] [ -n ] [ -q] -m [ SlaveName ... ]
/usr/sbin/ypinit -s MasterName
El primer comando se usa para configurar NIS en un Servidor Master NIS y el segundo comando
configurará NIS en un Servidor Esclavo NIS.
5.4
Otros Servicios de los NOS
5.4.1
Correo
El correo bien podría ser el más importante proceso de red de todos. El correo proporciona a los
usuarios un mecanismo para enviar y recibir correo electrónico (e-mail). Los servicios de correo vienen
en varias formas. A lo largo de los años, muchas compañías han desarrollado métodos propietarios de
intercambiar e-mail. Hoy, virtualmente todos los servicios de correo se basan en TCP/IP o pueden al
menos actuar como gateway entre los servicios de correo propietarios y TCP/IP. La Figura representa
cómo un cliente puede enviar correo a otro a través de Internet usando servicios TCP/IP.
Es un error pensar que el correo se envía de la computadora de un usuario directamente a otra. Aunque
este caso es posible, sólo puede ocurrir si ambas PCs están actuando como servidores de correo. La
mayor parte del tiempo, el correo del emisor se envía a un servidor de correo que pertenece a su ISP o
a su empleador, no directamente al destino. El servidor de correo luego envía el correo (de ser
necesario) a un servidor usado por el destinatario.
128
Por ejemplo, María tipea un e-mail a [email protected]. El programa de correo de María envía el correo a
un servidor de correo usado por María. Se trata en general de un servidor de correo ejecutado por el
ISP de María o su compañía. El servidor de correo intenta entonces enviar el mensaje a un servidor de
correo usado por John. El servidor de correo de María usa la información que se encuentra después del
símbolo @ de la dirección de John para determinar dónde enviar el mensaje. En este caso, el servidor
de María busca servidores de correo que manejen correo para foo.com. Una vez que el mensaje llega
al servidor de correo de foo.com, espera ahí hasta que el programa de e-mail de John lo recupera.
Los servicios de correo están compuestos por una combinación de los siguientes componentes:
·
·
·
Mail Transfer Agent (MTA)
Mail User Agent (MUA)
Mail Delivery Agent (MDA)
Sendmail es el nombre del MTA más popular usado en servidores UNIX y Linux. Sendmail se basa en
el Protocolo de Transferencia de Mail Simple (SMTP) para recibir correo de clientes y enviar correo a
otros servidores de correo. SMTP es parte de la suite de protocolos TCP/IP.
Clientes de correo populares (MUAs) incluyen a Microsoft Outlook, Eudora, y Pine. Los MUAs pueden
componer y enviar correo a los MTAs, como Sendmail. Los clientes de correo envían correo a
servidores usando SMTP.
Un MDA es un programa que es responsable de enrutar correo recibido a las bandejas de correo
apropiadas en el servidor de correo. Algunos MDAs incluyen funciones de seguridad y filtros que
pueden evitar la dispersión de virus de e-mail.
El e-mail no se lee usualmente cuando un usuario ha iniciado sesión a una cuenta de shell en el
servidor de correo. En cambio, se usa software para recuperar el correo de una bandeja de correo, que
reside en el servidor. Para recuperar correo de un servidor de correo, los clientes de correo remotos
usan dos protocolos comunes:
·
·
Post Office Protocol versión 3 (POP3)
Internet Message Access Protocol (IMAP)
Post Office Protocol versión 3 (POP3)
Un protocolo simple usado por los clientes de correo para autenticar servidores de correo y recuperar
correo. POP3 no cifra nombres de usuario ni contraseñas, por lo cual puede ser un riesgo de seguridad
en algunas LANs.
Internet Message Access Protocol (IMAP)
Un protocolo complejo que normalmente resulta en una más alta sobrecarga del servidor que POP3.
IMAP puede cifrar contraseñas y tiene otras funciones. Las implementaciones de IMAP están
generalmente diseñadas para almacenar e-mail en el servidor de correo y permitir a los usuarios
acceder desde varios clientes.
Al implementar servicios de correo, recuerde que los clientes envían correo a los servidores usando
SMTP y recuperar correo de los servidores usando POP3 o IMAP.
Además, muchos servidores de correo incluyen otras funciones, incluyendo soporte para otras
actividades:
·
·
Protocolo de Acceso a Directorio Liviano (LDAP) proporciona libreta de direcciones corporativa
compartida
Programas de interfaz de web que permiten a los clientes leer y componer correo usando un
navegador web
129
No es necesario que cada NOS de una red ejecute el servicio de correo. En general, solamente un
servidor de una red es necesario para llevar a cabo deberes relacionados con el e-mail para todos los
usuarios. Este servidor ejecuta el servicio de correo en todo momento, y los usuarios se conectan al
servidor cuando envían y leen e-mail. La Figura es una actividad de arrastrar y colocar sobre agentes
de correo comunes.
5.4
Otros Servicios de los NOS
5.4.2
Impresión
Aunque el mundo se dirige rápidamente a una era electrónica, aún existe necesidad de impresiones
físicas de datos. En redes grandes y en algunas pequeñas, es impráctico proporcionar una impresora a
cada estación de trabajo. La solución es proporcionar impresoras en red para soportar a todos los
usuarios dentro de una locación física. Por esta razón, los administradores de red usan servicios de
impresión para ayudar a administrar estas impresoras de red y sus respectivas colas de impresión.
Cuando un usuario decide imprimir en un entorno de impresión en red, el trabajo se envía a la cola
apropiada para la impresora seleccionada. Las colas de impresión "apilan" los trabajos de impresión
entrantes y los sirven usando un orden "Primero en Entrar, Primero en Salir" (FIFO). Es decir, cuando
un trabajo se agrega a la cola, se lo coloca al final de la lista de trabajos en espera y se lo imprime
después de todos los trabajos anteriores a él. La espera para un trabajo de impresión en ocasiones
puede ser larga, dependiendo del tamaño de los trabajos de impresión introducidos en la cola antes
que él. De esta manera, un servicio de impresión en red proporcionará a los administradores del
sistema las herramientas necesarias para administrar la gran cantidad de trabajos de impresión que se
enrutan a lo largo de toda la red. Esto incluye la capacidad de priorizar, hacer pausa, e incluso borrar
trabajos de impresión que están esperando para ser impresos. Los servicios de impresión usualmente
se confinan a un entorno de intranet local por razones de mantenimiento y capacidad administrativa. La
Figura muestra un ejemplo del administrador de trabajos de impresión para Windows 2000.
130
5.4
Otros Servicios de los NOS
5.4.3
Archivos compartidos
La capacidad de compartir archivos mediante una red es un importante servicio de red. Existen muchos
protocolos y aplicaciones para compartir archivos en uso hoy. Dentro de una red corporativa u
hogareña, los archivos en general se comparten usando Windows File Sharing o el protocolo Network
File Sharing (NFS). En tales entornos, un usuario final puede ni siquiera saber si un determinado
archivo se encuentra en el disco rígido local o en un servidor remoto. Windows File Sharing y NFS
permiten a los usuarios mover, crear, y borrar archivos fácilmente en directorios remotos.
En contraste a compartir archivos dentro de una red en el hogar o la oficina, compartir archivos en
Internet se efectúa a menudo usando el Protocolo de Transferencia de Archivos (FTP). FTP es un
protocolo cliente-servidor que requiere que los clientes inicien sesión antes de transferir archivos. Los
archivos siempre están disponibles con Windows File Sharing y NFS pero las sesiones FTP se
efectúan solamente en la duración de la transferencia de archivos. La mayoría de los NOSs con
capacidad TCP/IP incluyen servicios FTP, aunque los comandos soportados por cada NOS pueden
variar levemente.
Hoy, muchos usuarios finales comparten archivos usando protocolos peer-to-peer por Internet. Gnutella
es un ejemplo de protocolo de networking peer-to-peer. Los protocolos peer-to-peer funcionan sin un
servidor central. Cada host que participa en la red peer-to-peer es considerado el igual del resto de los
hosts. El networking peer-to-peer es popular entre los usuarios hogareños, pero aún tiene que
implementarse la tecnología como solución de negocio difundida. Las redes peer-to-peer a menudo se
basan en protocolos TCP/IP comunes para compartir archivos. Por ejemplo, los peers Gnutella usan
HTTP para descargar archivos de un peer a otro. La Figura muestra un ejemplo de un dominio con
los directorios y archivos compartidos a los que puede accederse mediante una conexión peer-to-peer.
5.4
Otros Servicios de los NOS
5.4.4
FTP (Transferencia de Archivos)
Muchas organizaciones hacen disponibles archivos a empleados remotos, clientes y al público en
general mediante el Protocolo de Transferencia de Archivos (FTP). Los servicios FTP se hacen
disponibles al público en conjunción con los servicios web. Por ejemplo, un usuario puede navegar por
un sitio web, leer acerca de una actualización de software en una página web, y después descargar la
actualización usando FTP. Compañías más pequeñas pueden usar un único servidor para proporcionar
servicios FTP y HTTP, mientras que compañías más grandes pueden elegir usar servidores FTP
131
dedicados. La Figura muestra un programa FTP típico, que puede usarse para descargar archivos
desde un servidor remoto.
Aunque los clientes FTP deben iniciar sesión, muchos servidores FTP se configuran para permitir un
acceso anónimo. Cuando los usuarios acceden a un servidor anónimamente, no necesitan tener una
cuenta de usuario en el sistema. El protocolo FTP también permite a los usuarios cargar, renombrar, y
borrar archivos, por lo cual los administradores deben tener cuidado al configurar un servidor FTP de
controlar niveles de acceso.
FTP es un protocolo orientado a la sesión. Los clientes deben abrir una sesión con el servidor,
autenticarse, y después llevar a cabo una acción como descargar o cargar. Si la sesión del cliente está
inactiva durante un cierto tiempo, el servidor desconecta al cliente. Este periodo inactivo se denomina
tiempo vencido por inactividad. La longitud de un tiempo vencido por inactividad FTP varía
dependiendo del software.
Las conexiones FTP se establecen mediante programas GUI o usando el siguiente comando CLI
estándar:
ftp nombre_host o dirección_IP
Ejemplos incluyen las siguientes situaciones:
ftp computadora.compañía.com
o
ftp 123.45.67.90
Los servicios FTP en general no son habilitados por defecto en los NOSs. Esto se hace para evitar que
los administradores inadvertidamente hagan disponibles para la descarga archivos restringidos.
Además, los programas de servidor FTP han sido históricamente un blanco de los DoS y otros ataques
maliciosos. Los atacantes que intentan evitar que usuarios legítimos obtengan acceso a un servicio,
como un servicio FTP, caracterizan un ataque DoS. Ejemplos incluyen a:
·
·
·
·
Intentos de inundar una red evitando el tráfico legítimo de la red
Intentos de perturbar las conexiones entre dos máquinas evitando el acceso a un servicio
Intentos de evitar a un individuo en particular el acceso a un servicio
Intentos de perturbar el servicio para un sistema o usuario específico
132
Un administrador de red deberá estar preparado para monitorear este tipo de actividad antes de
implementar un servicio FTP de alto perfil. La Figura muestra comandos FTP comunes.
Los Capítulos 9 y 10 describirán específicamente cómo configurar servicios FTP en Red Hat Linux 7 y
Windows 2000.
5.4
Otros Servicios de los NOS
5.4.5
Servicios web
La World Wide Web es ahora el servicio de red más visible. En menos de una década, la World Wide
Web se ha convertido en una red global de información, comercio, educación y entretenimiento. La
Figura muestra un gráfico que representa el crecimiento exponencial de Internet. Millones de
compañías, organizaciones, e individuos mantienen sitios web en Internet. Los sitios web son
colecciones de páginas web almacenadas en un servidor o en un grupo de servidores.
La World Wide Web se basa en un modelo cliente-servidor. Los clientes intentan establecer sesiones
TCP con servidores web. Una vez establecida una sesión, un cliente puede solicitar datos al servidor.
El Protocolo de Transferencia de Hipertexto (HTTP) gobierna en general las solicitudes de los clientes y
las transferencias de los servidores. Software cliente web incluye navegadores web GUI, como
Netscape Navigator e Internet Explorer. La Figura muestra un ejemplo del navegador web Windows
Explorer. Los clientes web también pueden ser navegadores de texto. Un navegador de texto puede
mostrar una red usando caracteres tipográficos, pero no gráficos. Ejemplos de navegadores de texto
incluyen a Lynx (usado en sistemas UNIX/Linux) y navegadores web inalámbricos (en teléfonos
celulares).
133
A principios de los '90, HTTP se usaba para transferir páginas estáticas compuestas de texto e
imágenes simples. Estas primeras páginas web estaban escritas casi exclusivamente usando
HyperText Markup Language (HTML). A medida que se desarrolló la World Wide Web, el rol de HTTP
se ha expandido. Los sitios web ahora usan HTTP para entregar contenido dinámico y transferir
archivos. Protocolo de Transferencia de Hipertexto Seguro (HTTPS) es una extensión del protocolo
HTTP que se usa para soportar datos enviados seguramente por Internet. HTTPS está diseñado para
enviar mensajes individuales con seguridad. Un ejemplo de Aplicación Web que podría usar HTTPS es
un banco que tiene sitios web para sus clientes que les permite llevar a cabo transacciones financieras.
Las páginas web se hospedan en computadoras que ejecutan software de servicio web. Los dos
paquetes de software de servidor web más comunes son Microsoft Internet Information Services (IIS) y
Apache Web Server. Microsoft IIS sólo puede ejecutarse en una plataforma Windows, mientras que
Apache Web Server se usa en general en plataformas UNIX y Linux. Existen docenas de otros
programas de servidor web. Existe algún tipo de servicio web disponibles para virtualmente todos los
sistemas operativos actualmente en producción.
El uso más obvio de los servicios web es comunicarse usando Internet. Las compañías publicitan y
venden sus productos usando sitios web, las organizaciones hacen disponible información, y las
familias colocan fotos y diarios online para compartir con amigos. No obstante, los servicios web
también se usan en redes públicas o privadas para implementar aplicaciones de computadoras,
colaborar en proyectos, y administrar sistemas remotos. Las siguientes secciones tratan redes World
Wide Web privadas, llamadas Intranets, así como la administración remota basada en la web. La
Figura muestra un ejemplo del navegador web Netscape Navigator.
134
5.4
Otros Servicios de los NOS
5.4.6
Intranet
Los servicios web juegan un rol significativo en redes privadas y corporativas. Una organización puede
implementar una red World Wide Web privada con una variedad de propósitos:
·
·
·
·
·
·
·
Información interna, memorandos, e informes
Directorios de personal y empleados
Calendarios y cronogramas de citas
Implementación de aplicaciones y software
Información sobre nómina de pagos
Servicios a los empleados
Herramientas colaborativas
Los servicios web juegan un rol significativo en redes privadas y corporativas. Una organización puede
implementar una red World Wide Web privada con una variedad de propósitos:
·
·
·
·
·
·
·
Información interna, memorandos, e informes
Directorios de personal y empleados
Calendarios y cronogramas de citas
Implementación de aplicaciones y software
Información sobre nómina de pagos
Servicios a los empleados
Herramientas colaborativas
Las organizaciones en general no desean que tal información y servicios se hagan públicos en Internet.
En cambio, las organizaciones construyen servidores web para crear una intranet privada. El prefijo en
latín "inter" significa "entre", y así puede considerarse que la palabra Internet significa literalmente
"entre redes". Este significado literal tiene sentido, ya que Internet proporciona una forma de
interconectar diferentes redes de computadoras de todo el mundo. La Figura proporciona un ejemplo
de representación lógica de una Intranet. Existen varias redes ubicadas en todo el mundo que están
conectadas y usan su propia Intranet para intercambiar información y mostrar páginas web, que es una
alternativa mucho más segura a mostrarlas en la Internet externa. El prefijo en latín "intra" significa
"dentro", por lo tanto una intranet es una red dentro de alguna frontera o límite.
Las intranets usan la misma tecnología usada por Internet, incluyendo HTTP sobre TCP/IP, servidores
135
web y clientes web. La diferencia entre una intranet e Internet es que las intranets no permiten el
acceso público a servidores privados.
Una forma de construir intranets es configurarlas para que sólo los usuarios en el sitio puedan acceder
a los servidores de intranet. Esto se logra en general usando un firewall Internet.
No obstante, puesto que muchos empleados trabajan en su casa o de viaje, las organizaciones han
hallado formas de extender las intranets más allá de las fronteras geográficas del edificio o campus de
la oficina. Este tipo de intranet, que permite a los usuarios de afuera conectarse a los servidores web
privados, a veces se llama Extranet.
Las extranets se configuran para permitir a los empleados y clientes acceder a la red privada por
Internet. Para evitar un acceso no autorizado a la red privada, los diseñadores de la extranet deben
usar una tecnología tal como un networking privado virtual. La Figura proporciona un ejemplo de
representación lógica de cómo se establece un Túnel Virtual mediante Internet para proporcionar una
conexión remota segura a la red interna de una compañía. Una red privada virtual (VPN) hace posible
para los empleados usar un cliente web conectado a Internet para acceder a la red privada de manera
segura. Las VPNs se basan en software de cifrado, nombres de usuario, y contraseñas para asegurar
que la comunicación tenga lugar privadamente, y sólo entre usuarios autorizados. La Figura ilustra
cómo una VPN también puede usarse como un medio seguro de transferir datos de manera segura a
otra sucursal remota usando Internet como medio de transporte.
5.4
Otros Servicios de los NOS
5.4.7
Extranet
Las extranets son una tecnología emergente que muchas de las más grandes corporaciones del mundo
están comenzando a construir. Proporcionan un medio de incluir al mundo exterior, como clientes y
proveedores, así como un medio de obtener valiosa investigación del mercado. Por ejemplo, una
intranet de una compañía puede estar vinculada a su sitio web externo (o extranet). Esto les puede
permitir obtener información acerca de un cliente que navega por su sitio web. La información incluiría
dónde están mirando en el sitio, qué productos toman como muestra, qué procesos producen
solicitudes de soporte técnico, o qué repuestos están comprando. Las extranets son intranets llevadas
al siguiente paso. Una intranet abarca la compañía, mientras que la extranet puede abarcar el mundo.
Las extranets pueden particionar y separar datos de la compañía contenidos en la intranet de la
compañía de los servicios web ofrecidos al mundo mediante Internet. Unas pocas ventajas de una
extranet para una compañía podría ser el e-mail y los programas compartidos. Puede extender las
capacidades de la compañía para proporcionar soporte al cliente, así como e-commerce y ventas
online. Uno de los peligros obvios de las extranets es la seguridad, no obstante es posible proporcionar
seguridad con firewalls y contraseñas cifradas. Esto no garantiza que una extranet sea segura. La
Figura delinea algunos de los diversos tipos de redes que han sido tratados.
136
5.4
Otros Servicios de los NOS
5.4.8
Tareas automatizadas con servicios de scripts
El software NOS moderno proporciona a los administradores de sistemas y usuarios muchas
herramientas incorporadas y funciones automatizadas para incrementar la productividad. A veces estas
funciones y comandos no son suficientes para llevar a cabo ciertas tareas eficientemente. Por esta
razón, la mayoría de los NOSs incluyen soporte para "scripts". Un script es un programa de texto
simple que permite al usuario llevar a cabo muchas tareas automatizadas a la vez. Dependiendo de su
diseño, los scripts pueden ir desde líneas únicas de código a largas cantidades de lógica de
programación.
Se considera que los scripts son mucho más simples que los programas y aplicaciones estándar que
se encuentran en un NOS. El sistema operativo procesa secuencialmente las líneas de código de un
archivo script cada vez que se ejecuta el archivo. La mayoría de los scripts están diseñados para
ejecutarse desde la parte superior del archivo hasta la inferior sin requerir ninguna entrada del usuario.
Este proceso es bastante diferente a los programas regulares, donde las líneas de código se compilan
en archivos ejecutables, y la interacción del usuario típicamente juega un rol fundamental. No obstante,
el usuario o administrador de sistemas promedio no tiene tiempo de desarrollar aplicaciones tan
complejas y a menudo no tiene necesidad de la potencia de programación adicional que proporcionan.
Los scripts proporcionan un buen terreno medio, ofreciendo la capacidad de usar lógica de
programación estándar para ejecutar tareas simples y no interactivas.
Existen muchos lenguajes de scripting diferentes, y cada uno ofrece sus propias ventajas al usuario:
·
·
·
·
Visual Basic script (VBScript) Un lenguaje de scripting de Microsoft muy popular basado en
el lenguaje de programación Visual Basic. VBScript se considera fácil de aprender y es
ampliamente usado en Windows 2000.
JavaScript Otro lenguaje de scripting popular basado en el lenguaje de programación Java.
JavaScript se usa más a menudo en páginas web, permitiendo a un navegador web ejecutar el
script y proporcionar a los usuarios de la web más funcionalidades.
Linux shell scripting Específico del NOS Linux, estos scripts de shell consisten en muchos
comandos Linux y lógica de programación para llevar a cabo una serie de comandos a la vez.
Perl, PHP, TCL, REXX, y Python Existen muchos otros lenguajes de scripting con varios
grados de dificultad y propósitos. La mayoría de los usuarios no son expertos en tales
lenguajes y en cambio se concentran en aprender sólo aquéllos que mejor sirven a sus
necesidades.
Aunque difieran en funcionalidad y sintaxis, estos lenguajes de scripting proporcionan a los usuarios las
herramientas necesarias para personalizar el NOS. Los NOSs ahora soportan típicamente varios de
estos diferentes lenguajes de scripting y proporcionan a los usuarios flexibilidad para determinar qué
lenguaje de scripting implementar.
Soluciones en Script
La mayoría de los usuarios de NOS promedio no crearán ni ejecutarán sus propios scripts. La mayor
137
parte del scripting es llevado a cabo por administradores de sistemas y usuarios experimentados que
se sienten cómodos con los conceptos de programación. Tienden a construir tales scripts con el
propósito de automatizar tareas específicas mediante la ejecución de un único archivo script. Estos
archivos script pueden luego programarse para que se ejecuten a una hora determinada, cuando
ocurre un evento, o para ser ejecutados manualmente por el usuario. Los siguientes ejemplos
demuestran casos comunes donde los scripts son una solución apropiada:
·
·
·
·
Iniciar sesión en el NOS Un administrador de sistemas puede usar scripts para efectuar
tareas adicionales cuando los usuarios inician sesión en la red. Éstas incluyen configuraciones
por defecto, inicialización de servicios, y conexión a otra unidades de red, dispositivos e
impresoras.
Imprimir mensajes en la pantalla A menudo se crean scripts personalizados que muestran
mensajes a los usuarios de una red. Estos mensajes típicamente notifican a los usuarios de
eventos tales como la llegada de nuevo correo, el estado de un trabajo de impresión, o el
apagado de un servidor de red.
Instalar software Un proceso común de instalación de software requiere administradores de
sistema que seleccionen y confirmen muchas opciones. Pueden crearse scripts para
automatizar este proceso y reducir la cantidad de tiempo necesario para instalar el software en
incontables PCs a lo largo de una red.
Automatizar comandos complicados Algunas tareas muchas veces involucran una serie de
comandos complicados que debe repetirse muy a menudo. Para simplificar este proceso, se
crean scripts que contienen todos estos comandos, permitiendo así al usuario ejecutar sólo el
archivo script y llevar a cabo todas las tareas automáticamente.
Escribir un script en Windows 2000 y Linux se tratará en el Capítulo 10. La Figura delinea algunos de
los más importantes lenguajes de programación que se usan en algunos de los sistemas operativos
más importantes tratados en este curso.
5.4
Otros Servicios de los NOS
5.4.9
Servicio de Nombre de Dominio (DNS)
El protocolo Servicio de Nombre de Dominio (DNS) traduce un nombre de Internet (como
www.cisco.com, por ejemplo) a dirección IP. Muchas aplicaciones se basan en los servicios de
directorio proporcionados por DNS para hacer su trabajo. Los navegadores web, programas de e-mail,
y programas de transferencia de archivos usan todos ellos los nombres de sistemas remotos. El
protocolo DNS permite a estos clientes hacer solicitudes a servidores DNS en la red para la traducción
de nombres a direcciones IP. (Ver Figura ). Las aplicaciones pueden luego usar las direcciones para
enviar sus mensajes. Sin este servicio de búsqueda de directorio, Internet sería casi imposible de usar.
138
Nombres de host
Los nombres de host y los servicios DNS que los sistemas informáticos ejecutan están todos
relacionados. El nombre de Internet que el DNS resuelve a la dirección IP también se denomina
nombre de host. Para los sistemas informáticos es más fácil trabajar con números, por lo que las
computadoras pueden muy fácil y rápidamente distinguir entre diferentes computadoras y localizar
diferentes computadoras usando una dirección IP binaria. Es un proceso mucho más difícil para los
seres humanos poder hacer esto. Ésta es la razón por la cual los nombres de host se resuelven a
direcciones IP mediante los servicios DNS. Por ejemplo, si a un usuario se le dieran dos direcciones IP
para dos computadoras, como 192.168.1.5 y 168.5.59.7, sería difícil distinguir a qué sistema
informático representaran estas direcciones IP. Especialmente si los servicios DHCP estuvieran
habilitados lo que significa que la dirección IP podría cambiar por momentos. Sería imposible para un
administrador de sistema o los usuarios finales mantener el rastro. Por otro lado, si el administrador del
sistema o los usuarios finales pudieran encontrar esta computadora usando un nombre de host como
fileserver_A o fileserver_B por ejemplo, el usuario podría distinguir muy fácil y rápidamente entre
sistemas informáticos. Los nombres de host también hacen fácil el localizar sistemas específicos como
servidores web o servidores FTP en Internet porque es mucho más fácil recordar un nombre que una
dirección IP.
Existen unas pocas reglas que es importante conocer respecto a los nombres de host. Los nombres de
host se componen de dos partes, de manera similar a como una dirección IP se compone de dos
partes. La primera parte del nombre de host se llama Nombre de la Máquina y la segunda parte se
llama Nombre de Dominio. El nombre de la máquina se refiere a la computadora real mientras que el
nombre de dominio se refiere a la colección de computadoras a la cual pertenece la computadora
específica. Los nombres de dominio son únicos y son nombres registrados para su uso por parte de
individuos, pequeños negocios y corporaciones, que pueden asignar los nombres de máquina a
sistemas dentro del dominio y vincular esos nombres de máquina a direcciones IP.
Para comprender cómo funciona este proceso entre nombres de máquina y nombres de dominio, es
necesario comprender la estructura jerárquica de los dominios de Internet. La estructura está
compuesta de Dominios de Nivel Superior (TLDs), que se consideran la parte superior del "árboldominio". Ejemplos de TLDs son cosas como .com, .edu, .gov, o .mil, por ejemplo. Los usuarios estarán
probablemente familiarizados con estos nombres si alguna vez han estado en Internet. Dentro de cada
TLD hay diversos nombres de dominio registrados que representan a individuos específicos, pequeños
negocios, corporaciones y organizaciones como cisco.com o linux.com por ejemplo. Estos dominios
aún se dividen en subdominios más pequeños dentro del dominio como SanJose.Cisco.com o
Phoenix.Cisco.com por ejemplo. La estructura de dominio y subdominio representa agrupaciones
lógicas de computadoras dentro de las compañías u organizaciones. Incluso los subdominios pueden
dividirse en subdominios más pequeños.
139
Los nombres de host usualmente son asignados por administradores de sistema o tendrán
convenciones de nombrado especificadas que se usan para identificar las computadoras según quién
las usa, para qué se las usa, o en qué departamento se encuentran. El administrador del sistema
usualmente hace esta convención de nombrado de modo tal que cada computadora del dominio pueda
ser fácilmente identificada. Por esta razón es muy raro que cualquier computadora de una red que es
parte del dominio tenga sus nombres de host configurados por el usuario. Existen algunas instancias
que, si se está usando DHCP, los nombres de host pueden asignarse automáticamente. No obstante,
estos no se hace por lo general ya que los nombres de host son usualmente controlados por el
administrador del sistema y deben configurarse manualmente.
Configuración de Servicios DNS Básicos para Linux
Tratar todo lo involucrado en configurar su sistema Linux como servidor DNS iría más allá del alcance
de este curso. Esta sección tratará en cambio algunos de los archivos y pasos básicos involucrados en
la configuración de servicios DNS.
Según se explicó al principio de la sección, el Sistema de Nombres de Dominio (DNS) es la forma en la
cual una dirección IP se resuelve a un URL o nombre de dominio como www.google.com para asignar
un nombre fácilmente localizado, administrado y recordado a una dirección IP arbitrariamente
numérica.
BIND es una sigla para el proyecto "Berkeley Internet Name Domain" que mantiene a la suite de
software relacionada con DNS que se ejecuta bajo Linux. El programa mejor conocido en BIND es
"named", el daemon que responde a las consultas DNS desde máquinas remotas. Una vez que BIND
ha sido instalado, la primera cosa que hacer sería iniciar el BIND de la siguiente manera:
# /etc/init.d/named start
Para configurar BIND para que se inicie automáticamente cuando el servidor arranca use el siguiente
comando:
# chkconfig --level 35 named on
El archivo /etc/resolv.conf es usado por clientes DNS (servidores que no ejecutan BIND) para
determinar tanto la ubicación de su servidor DNS como los dominios a los cuales pertenecen. En
general tiene dos columnas, la primera contiene una palabra clave y la segunda contiene el o los
valor(es) deseado(s) separados por comas. Una lista de las palabras clave se muestra en la Figura
La configuración DNS principal se guarda en el archivo /etc/named.conf que se usa para decirle a
.
140
BIND dónde encontrar los archivos de configuración para cada dominio que posee. Por lo general hay
dos zonas en este archivo:
·
·
Definiciones del archivo de la zona hacia delante que enumera los archivos para mapear
dominios a direcciones IP
Definiciones del archivo de la zona en reversa que enumera los archivos para mapear
direcciones IP a dominios
El archivo /etc/hosts enumera el nombre y la dirección IP de los hosts locales. Su servidor en general
verificará este archivo antes de hacer referencia a DNS, si el nombre se encuentra entonces DNS no
será consultado. Desgraciadamente, si la dirección IP de ese host cambia, tendrá que actualizarse el
archivo. Para que sea fácil la administración, lo mejor es limitar las entradas en este archivo sólo a la
interfaz loopback, y también al nombre de host local. El archivo /etc/hosts tiene el siguiente formato:
dirección-ip nombre-dominio-totalmente-calificado alias1 alias2 alias3 etc
dig
La utilidad dig (buscador de información de dominio) es una flexible herramienta para interrogar
servidores de nombre DNS. Lleva a cabo búsquedas DNS y muestra las respuestas que son devueltas
por el o los servidor(es) de nombre que fueron consultado(s). La mayoría de los administradores de
DNS usan dig para detectar y solucionar problemas de DNS a causa de su flexibilidad, facilidad de uso
y claridad de resultados. Otras herramientas de búsquedas tienden a tener menos funcionalidad que
dig. A menos que se le indique que consulte un servidor de nombre específico, dig probará cada uno
de los servidores enumerados en /etc/resolv.conf.
Un ejemplo del uso del comando dig es el que sigue:
# dig servidor nombre tipo
·
·
·
servidor El nombre o dirección IP del servidor de nombre a consultar. Ésta puede ser una
dirección IPv4 en notación decimal de punto o una dirección IPv6 en notación delimitada por
dos puntos. Cuando el argumento del servidor proporcionado es un nombre de host, dig
resuelve ese nombre antes de consultar al servidor de nombre. Si no se proporciona ningún
argumento de servidor, dig consulta /etc/resolv.conf y consulta los servidores de nombre
enumerados ahí. La respuesta del servidor de nombre se muestra.
nombre El nombre del registro de recursos donde hay que buscar.
tipo Indica qué tipo de consulta se requiere - ANY, A, MX, SIG, etc. tipo puede ser cualquier
tipo de consulta válido. Si no se proporciona ningún argumento tipo, dig llevará a cabo una
búsqueda de un registro A.
5.4
Otros Servicios de los NOS
5.4.10
DHCP
El propósito del Protocolo de Configuración Dinámica del Host (DHCP) es habilitar computadoras
individuales en una red IP para extraer sus configuraciones del servidor o los servidores DHCP. Estos
servidores DHCP no tienen información exacta acerca de las computadoras individuales hasta que no
se solicita información. El propósito general de esto es reducir el trabajo necesario para administrar una
red IP grande. La más significativa pieza de información distribuida de esta manera es la dirección IP
que identifica al host en la red. DHCP también permite la recuperación y la capacidad de renovar
automáticamente las direcciones IP de red mediante un mecanismo de préstamo. Este mecanismo
adjudica una dirección IP para un periodo específico, la libera y luego asigna una nueva dirección IP.
DHCP permite que todo esto lo haga un servidor DHCP que ahorra al administrador del sistema
considerables cantidades de tiempo.
141
Linux tiene la capacidad de usar cualquiera de tres clientes DHCP, pump, dhclient o dhcpd. No todas
las distribuciones de Linux contendrán a los tres. Algunas tendrán los tres, algunas solamente dos, y
otras solamente uno. No obstante, todas las distribuciones tienen un cliente DHCP por defecto que se
usa, si el usuario eligió la opción de usar DHCP durante el proceso de instalación. Las distribuciones
que vienen con varios clientes DHCP permiten intercambiarlos quitando el viejo paquete y simplemente
instalando el nuevo.
El cliente DHCP Linux inicia cuando se arranca el sistema. La información de configuración se
almacena en un archivo de inicio llamado Network o Networking. En este archivo se ubica una línea de
texto que indicó si ejecutar o no el cliente DHCP. La línea de texto puede verse a continuación:
BOOTPROTO="dhcp"
La distribución Red Hat de Linux almacena esta información en el archivo /etc/sysconfig/networkscripts/ifcfg-eth0. Borrando el "dhcp" en la línea de texto de más arriba, se detendrán los servicios
DHCP.
Configuración de Servicios DHCP Básicos para Linux
Tratar todo lo involucrado en configurar su sistema Linux como servidor DHCP iría más allá del alcance
de este curso. Esta sección tratará en cambio algunos de los archivos y pasos básicos involucrados en
la configuración de los servicios DHCP.
Cuando DHCP inicia, lee el archivo /etc/dhcp.conf. Usa los comandos que hay aquí para configurar su
red. Normalmente puede encontrarse una copia de muestra de dhcpd.conf en el siguiente directorio
que siempre puede usarse como guía.
/usr/share/doc/dhcp- <número-versión> /dhcpd.conf
Antes de iniciar el servidor DHCP por primera vez, fallará a menos que haya un archivo dhcpd.leases
existente. Use el siguiente comando para crear el archivo si no existe.
# touch /var/lib/dhcp/dhcpd. leases
Una vez que el daemon DHCP se ha instalado, lo primero que hacer sería iniciar DHCP de la siguiente
manera:
# /etc/init.d/dhcpd start
142
Para configurar dhcpd para que inicie automáticamente cuando el servidor arranca, use el siguiente
comando:
# chkconfig --level 35 dhcpd on
5.4
Otros Servicios de los NOS
5.4.11
Dominios
Un dominio es una agrupación lógica de computadoras en red que comparten un directorio o base de
datos central. El directorio o base de datos se instala en computadoras llamadas Servidores. Un
servidor usualmente administra todas las interacciones entre dominios relacionadas con la seguridad y
con los usuarios. También proporciona un lugar centralizado desde el cual administrar estos servicios.
El concepto de dominio no incluye simplemente computadoras que están unas junto a otras, o en una
locación específica, o incluso en la misma LAN, aunque puede. También puede incluir computadoras y
servidores ubicados en diferentes locaciones en el mundo que pueden comunicarse entre sí con
diversos tipos de conexiones para mantener una base de datos sincronizada. La idea de dominio no es
física, sino más bien una agrupación lógica de computadoras y servidores de la compañía (ver Figura
). Los dominios tienen varias ventajas:
·
·
·
Administración centralizada ya que toda la información de los usuarios se almacena
centralmente.
Un único proceso de inicio de sesión que habilita a los usuarios a acceder a recursos de la red,
como recursos de archivos, impresión y aplicaciones así como especificar permisos que
controlen quién puede y quién no puede acceder a estos servicios.
Un dominio proporciona la capacidad de expandir una red hasta tamaños extremadamente
grandes en cada rincón del mundo.
Resumen
Este capítulo trató los servicios de red. Algunos de los conceptos importantes a retener de él son
los siguientes:
·
·
·
La administración remota permite a un administrador acceder a una base de datos de
archivos de un sistema, ejecutar diversos programas, o incluso descargar información o
archivos de otra habitación, otra ciudad, u otro país.
Varias aplicaciones y protocolos pueden usarse para administrar remotamente un
servidor de red. El método más común de administración remota es la emulación de
terminal.
Mientras que Novell NDS funciona como servicio que trabaja con el NOS, Microsoft
143
·
·
Active Directory funciona como aplicación profundamente integrada al sistema operativo.
Linux usa otra versión de Servicio de Directorio llamada Servicio de Información de la
Red (NIS). NIS proporciona un servicio de búsqueda en la red simple que consiste en
bases de datos y procesos.
La World Wide Web es ahora el servicio de red más visible. Una intranet no permite el
acceso público a servidores privados. Es específica de una compañía individual. Una
Extranet es una tecnología emergente que combina lo mejor de Internet y una intranet.
Las computadoras con NOS asumen roles especializados para lograr un acceso concurrente a
recursos compartidos. El siguiente capítulo trata las características de los NOSs.
6. Introducción a los sistemas operativos de red
Descripción general
Un sistema operativo (OS) de computadora es la base de software sobre la cual se ejecutan las
aplicaciones y servicios de computadora. De manera similar, un sistema operativo de red (NOS)
permite la comunicación entre varios dispositivos y recursos compartidos a través de una red.
Un NOS es, en general, un sistema operativo que se ejecuta sobre un servidor de red, como
Linux, UNIX, o Microsoft Windows Server. Este capítulo trata los siguientes sistemas operativos
de red:
·
·
·
·
·
Microsoft Windows NT 4.0
Microsoft Windows 2000/XP
Microsoft Windows 2002/2003 Server
Linux
UNIX
6.1
Características de un Sistema Operativo de Red
6.1.1
Descripción general de las características de los NOS
La función de un sistema operativo (OS) es controlar el hardware de la computadora, el entorno de
ejecución de los programas, y la interfaz del usuario. El OS lleva a cabo estas funciones para un único
usuario o una cantidad de usuarios que comparten la máquina más serialmente que concurrentemente.
Un administrador puede configurar cuentas para más de un usuario, pero los usuarios no pueden iniciar
sesión al sistema al mismo tiempo.
En contraste, los sistemas operativos de red (NOSs) distribuyen sus funciones a través de una cantidad
de computadoras en red. Un NOS depende del OS nativo de cada computadora individual. Luego
agrega funciones que permiten el acceso a los recursos compartidos por una cantidad de usuarios
concurrentemente. La Figura compara cómo está diseñada una relación cliente-servidor comparada
a otros entornos típicos.
144
Las computadoras NOS asumen roles especializados para lograr un acceso concurrente a recursos
compartidos. Los sistemas cliente contienen software especializado que les permite solicitar recursos
compartidos que son controlados por sistemas servidores respondiendo a una solicitud del cliente. La
Figura ilustra el concepto de cómo los datos que se almacenan en servidores se hacen disponibles
ante las solicitudes de los clientes.
6.1
Características de un Sistema Operativo de Red
6.1.2
Diferencias entre las PCs y un NOS
Las PCs funcionan como clientes en un entorno NOS. Usando las funciones del sistema operativo
nativo de la PC, el usuario puede acceder a recursos que son locales en relación con la PC. Éstos
incluyen aplicaciones, archivos, y dispositivos que están directamente conectados, como impresoras.
Cuando una PC se convierte en cliente de un entorno NOS, software especializado adicional permite al
usuario local acceder a recursos no locales o remotos como si estos recursos fueran parte del sistema
local. El NOS mejora el alcance de la PC cliente haciendo los servicios remotos disponibles como
extensiones del sistema operativo nativo local.
Aunque una cantidad de usuarios pueden tener cuentas en una PC, sólo una única cuenta está activa
en el sistema en un momento dado. En cambio, un NOS soporta varias cuentas de usuario al mismo
tiempo y permite el acceso concurrente a recursos compartidos por varios clientes. Los servidores
deben soportar varios usuarios y actuar como repositorios de recursos que son compartidos por
muchos clientes. Los servidores requieren software especializado y hardware adicional. La Figura
ilustra mejor este concepto. El servidor debe contener varias cuentas de usuario y poder permitir
145
acceso a más de un usuario a la vez a los recursos de la red.
6.1
Características de un Sistema Operativo de Red
6.1.3
Sistemas multiusuario, multitarea y multiprocesador
Para poder soportar varios usuarios concurrentes y proporcionar acceso compartido a servicios,
recursos, y dispositivos de la red, los servidores de los NOSs deben correr sistemas operativos con
características que se extiendan más allá de aquéllas de las PCs clientes. Una cantidad de sistemas
operativos como Linux, Windows NT/2000/XP, y Novell NetWare pueden integrar las características
que se requieren para funcionar como servidor NOS.
Un sistema capaz de operar como servidor NOS debe poder soportar varios usuarios
concurrentemente. El administrador de la red crea una cuenta para cada usuario, permitiendo al
usuario conectarse e iniciar sesión al sistema de servidores. Una cuenta de usuario en el servidor
permite al servidor autenticar al usuario y adjudicar los recursos apropiados a los que se permite
acceder al usuario. Los sistemas que proporcionan esta capacidad se denominan sistemas
multiusuario. UNIX, Linux, y Windows NT/2000/XP soportan todos esta capacidad multiusuario.
Un servidor NOS es un sistema multitarea. Internamente, el OS debe ser capaz de ejecutar varias
tareas o procesos al mismo tiempo. Los sistemas operativos de servidor logran esto mediante software
de cronograma incorporado al entorno de ejecución. El software de cronograma adjudica tiempo interno
del procesador, memoria, y otros elementos del sistema a diferentes tareas de forma tal que les
permite compartir los recursos del sistema. Cada usuario del sistema multiusuario es soportado por una
tarea o proceso separado internamente en el servidor. Estas tareas internas se crean dinámicamente a
medida que los usuarios se conectan al sistema y son borrados cuando los usuarios se desconectan.
Otra función de los sistemas capaz de actuar como servidores NOS es la potencia de procesamiento.
Por lo común, las computadoras tienen una única unidad central de procesamiento (CPU) que ejecuta
las instrucciones que componen una determinada tarea o proceso. Para poder trabajar eficientemente y
entregar rápidas respuestas a las solicitudes de los clientes, un OS que funciona como servidor NOS
requiere una CPU potente para ejecutar sus tareas o programas. Sistemas de procesador único con
una CPU pueden cumplir las necesidades de la mayoría de los servidores NOS si tienen la velocidad
necesaria. Para lograr velocidades de ejecución más altas, algunos sistemas vienen equipados con
más de un procesador. Tales sistemas se denominan sistemas multiprocesadores. Son capaces de
ejecutar varias tareas en paralelo asignando cada tarea a un procesador diferente. La cantidad
agregada de trabajo que el servidor puede llevar a cabo en un momento determinado está muy
mejorada en los sistemas multiprocesadores. La Figura ilustra un servidor multitarea típico que está
ejecutando varias instancias de servicios de red a los que se está accediendo mediante varios sistemas
cliente. Los servidores de esta naturaleza a veces se denominan servidores empresariales a causa de
su capacidad de manejar servicios grandes y varios. Los servidores empresariales también son
146
capaces de ejecutar copias concurrentes de un comando en particular. Esto les permite ejecutar varias
instancias del mismo servicio llamadas thread. Una thread es un término de programación de
computadoras que describe un programa que puede ejecutarse independientemente de otras partes.
Los sistemas operativos que soportan multithreading permiten a los programadores diseñar programas
cuyas partes divididas y autónomas puedan ejecutarse concurrentemente.
6.1
Características de un Sistema Operativo de Red
6.1.4
Hardware de servidor para un NOS
En un entorno NOS, muchos sistemas cliente acceden a y comparten los recursos de uno o más
servidores. Los sistemas de cliente de escritorio están equipados con su propia memoria y dispositivos
periféricos como un teclado, monitor, y unidad de disco. Para soportar el procesamiento local, los
sistemas servidores deben estar equipados para soportar a varios usuarios concurrentes y varias
tareas concurrentes a medida que los clientes hacen demandas de recursos remotos al servidor.
En general, los servidores NOS son sistemas más grandes con memoria adicional para soportar varias
tareas que estén todas activas, o residentes, en la memoria al mismo tiempo. También se requiere
espacio en disco adicional en los servidores para contener los archivos compartidos y para funcionar
como extensión de la memoria interna del sistema. Además, los servidores en general requieren slots
de expansión extra en sus placas del sistema para conectar dispositivos compartidos, como impresoras
y varias interfaces de red. En servidores multiprocesador, CPUs adicionales mejoran la potencia de
procesamiento.
Puesto que los servidores NOS funcionan como repositorios centrales de recursos vitales para la
operación de sistemas cliente, los servidores no sólo deben ser eficientes sino también robustos. El
término robusto indica que los sistemas del servidor son capaces de funcionar eficazmente bajo cargas
pesadas. También significa que los sistemas pueden sobrevivir al fallo de uno o más procesos o
componentes sin experimentar un fallo general del sistema. Este objetivo se cumple incorporando
redundancia a los sistemas de servidor. Redundancia es la inclusión de componentes de hardware
adicionales que pueden tomar el mando si otros componentes fallan. La redundancia es una
característica de sistemas tolerantes a fallos que están diseñados para sobrevivir a fallos e incluso ser
reparados sin interrupción mientras están funcionando. Un NOS depende de la operación continua de
sus servidores. Por lo tanto, los componentes extra de hardware justifican el gasto adicional.
147
6.1
Características de un Sistema Operativo de Red
6.1.5
Elección de un NOS
Las principales características a considerar al seleccionar un NOS incluyen el desempeño, las
herramientas de administración y monitoreo, la seguridad, la escalabilidad, y la robustez/tolerancia a
fallos. La siguiente sección define brevemente cada una de estas características.
Desempeño
Un NOS debe desempeñarse bien leyendo/escribiendo archivos a través de la red entre clientes y
servidores. Debe poder sostener un desempeño rápido bajo pesadas cargas cuando muchos, quizás
cientos de clientes estén efectuando solicitudes.
Un NOS debe responder a las solicitudes de los clientes de acceso a las bases de datos del servidor.
Por ejemplo, una solicitud de transacción para extraer registros de una base de datos albergada en el
sistema de servidores del NOS. Un desempeño consistente bajo una fuerte demanda es algo
importante para un NOS.
Administración y Monitoreo
La interfaz de administración del servidor en un NOS proporciona las herramientas para monitoreo del
servidor, administración de clientes, administración de archivos e impresión, y administración de
almacenamiento en disco. La interfaz de administración proporciona herramientas para la instalación
de nuevos servicios y la configuración de dichos servicios. Además, los servidores requieren un
monitoreo y ajuste regulares.
Seguridad
Un NOS debe proteger los recursos compartidos bajo su control. La seguridad incluye autenticar el
acceso a los servicios de parte del usuario para evitar un acceso no autorizado a los recursos de la red.
La seguridad también lleva a cabo el cifrado para la protección de la información a medida que viaja
entre clientes y servidores.
Escalabilidad
La escalabilidad es la capacidad del NOS de crecer sin degradación en el desempeño. El NOS debe
ser capaz de sostener su desempeño a medida que nuevos usuarios se unen a la red y nuevos
servidores se agregan para soportarlos.
Robustez/Tolerancia a Fallos
Una medida de robustez es la capacidad de entregar servicios de NOS consistentemente bajo pesadas
cargas y de sostener sus servicios si los componentes de los procesos fallan. Dispositivos de disco
redundantes y equilibrio de la carga en varios servidores pueden mejorar la robustez del NOS.
148
6.1
Características de un Sistema Operativo de Red
6.1.6
Tipos de NOSs
Elegir un NOS puede ser una decisión compleja y difícil. Todo NOS popular tiene sus fortalezas y
debilidades. Un NOS puede costar miles de dólares más que los sistemas operativos de escritorio,
dependiendo de la cantidad de clientes que estarán conectados al servidor.
Es importante conocer lo básico acerca de las familias de NOS populares. Muchas redes incluyen ahora
más de un tipo de servidor, y sabiendo cómo hacer interoperar estos diversos sistemas es una habilidad
importante para un administrador de red.
Los sistemas operativos en la red tienen su propio lenguaje. Diferentes fabricantes de NOS usan los
mismos términos en diferentes formas. Por ejemplo, en un entorno UNIX, "raíz" se refiere a la cuenta
administrativa master, pero en redes NetWare, se usa para identificar un objeto de los servicios de
directorio Novell (NDS). En Windows, raíz puede relacionarse con el dominio que se encuentra en la
parte superior de un árbol de dominio Windows 2000 o XP o al componente básico de un Sistema de
Archivos Distribuido (DFS). La Figura muestra ejemplos de algunos de los diferentes tipos de NOSs
que se tratarán en este curso.
En las siguientes secciones, se tratarán las siguientes redes populares basadas en NOS:
·
·
·
Linux
Windows NT and Windows 2000
Windows XP
149
6.2
Windows
6.2.1 Terminología Windows
Las redes basadas en servidores Windows que ejecutan Windows NT Server o Windows 2000 Server
se basan en el concepto de dominio. Un dominio es un grupo de computadoras y usuarios que sirven
como frontera de autoridad administrativa. Los dominios Windows NT y los dominios Windows 2000,
aunque de función similar, interactúan entre sí de manera diferente.
Microsoft usa el término "dominio" para describir grupos de computadoras, usuarios y recursos que
forman una frontera administrativa. Microsoft usa el término "controlador de dominio" para describir los
servidores de autenticación de inicio de sesión que contienen una copia de la base de datos de cuentas
de seguridad. También específica de las redes Microsoft es la distinción entre la impresora, usada para
describir una construcción de software lógica, y el dispositivo de impresión, que hace referencia a la
pieza de hardware real que imprime el documento.
La terminología de networking de Windows 2000 es familiar para aquéllos que hayan trabajado con
Windows NT 4.0. No obstante, algunos términos y conceptos, como el árbol y bosque de dominios,
podrían ser nuevos para los administradores NT. Además, los administradores que llegan al networking
Windows desde un entorno NetWare podrían hallar que algunos términos familiares, como "árbol",
ahora tienen significados diferentes.
En las siguientes secciones, se examinan características específicas de Windows NT 4.0 y Windows
2000. La Figura ilustra un ejemplo de las diversas formas en que las computadoras pueden
disponerse en una red. Pueden ser autónomas, miembro de un dominio de un único grupo o de un
dominio de varios grupos.
6.2
Windows
6.2.2
Windows NT 4.0
Windows NT Workstation fue el primer sistema operativo de escritorio de Microsoft que estaba dirigido
al mercado corporativo. La última versión del sistema operativo NT es NT 4.0, que tiene una interfaz de
usuario similar a la de Windows 95. Antes del lanzamiento de NT 4.0, Microsoft lanzó NT 3.x, que tiene
la interfaz de Windows 3.x. Windows NT fue diseñado para proporcionar un entorno para negocios
críticos para la misión que serían más estables que los sistemas operativos para consumidores de
Microsoft.
Cuando se lanzó la primera versión de Windows NT, Microsoft afirmó que el acrónimo significaba
"Nueva Tecnología". Más recientemente, la compañía ha declarado que "NT" es autónomo y no una
150
sigla.
Algunas ventajas de Windows NT Workstation como sistema operativo de escritorio y cliente de red son
las siguientes:
·
·
·
Es un auténtico sistema operativo de 32 bits, y soporta multitasking preferencial y mayor
estabilidad del sistema.
Incluye seguridad a nivel de los archivos y compresión de datos archivo por archivo.
Es compatible con muchos programas de 16 bits, sin sacrificar confiabilidad. NT ejecuta DOS y
antiguos programas Windows en Máquinas Virtuales (VMs). Usando este método, si una
aplicación se cuelga, esto no afecta a otras aplicaciones ni requiere un reinicio del sistema
operativo.
La integración de la red es un foco principal en el diseño de Microsoft Windows NT. NT incluye soporte
para placas de interfaz de red (NICs) comunes así como el software necesario para conectarse a redes
Microsoft y NetWare. También se incorpora la capacidad para funcionar como cliente o servidor de
acceso remoto.
Estructura de Dominio de Windows NT
La estructura de dominio de Windows NT es enteramente diferente de la estructura de dominio en
Windows 2000. En lugar de Active Directory, Windows NT proporciona una herramienta administrativa
llamada Administrador de Usuarios para Dominios. La Figura proporciona un ejemplo de la pantalla
de administración de cuentas del Administrador de Usuarios para Dominios de Windows NT. Se accede
desde el controlador de dominios y se usa para crear, administrar y eliminar cuentas de usuarios de
dominios. El Administrador de Usuarios para Dominios permite al administrador crear nuevas cuentas
de usuario y grupos, renombrar, modificar y eliminar cuentas, asignar contraseñas, configurar políticas
de cuentas, y establecer restricciones sobre los usuarios. Las restricciones sobre los usuarios incluyen
especificar cuándo y desde qué estaciones de trabajo pueden iniciar sesión.
Cada dominio NT requiere un (y sólo uno) Controlador de Dominio Principal (PDC). Éste es el servidor
"master" que contiene la Base de Datos de Administración de Cuentas de Seguridad (a menudo
llamada SAM). Un dominio también puede tener uno o más Controladores de Dominio de Respaldo
(BDCs), cada uno de los cuales contiene una copia de sólo lectura de la SAM. La SAM es lo que
controla el proceso de autenticación cuando un usuario inicia sesión en el dominio. Cuando un usuario
intenta iniciar sesión, la información de cuenta se envía a la base de datos SAM. Si la información para
esa cuenta se almacena en la Base de Datos SAM, entonces el usuario será autenticado para el
Dominio y tendrá acceso a la estación de trabajo y los recursos de la red.
Los usuarios pueden iniciar sesión y recibir autenticación por un PDC o un BDC. No obstante, los
151
cambios en la SAM sólo pueden hacerse en el PDC. Estos cambios luego se replican en los BDCs
regularmente. Los BDCs equilibran la carga de tráfico de autenticación y sirven como respaldos en
caso de que el PDC pase a inactividad. Si el PDC pasa a inactividad de manera permanente, un BDC
puede ser "promovido" y convertirse en PDC.
6.2
Windows
6.2.3
Sistemas Operativos Windows 2000 y XP
Windows 2000 y Windows XP son unos de los sistemas operativos de Microsoft para el escritorio
corporativo. El diseño de Windows 2000 y Windows XP está basado en la tecnología que Microsoft
desarrolló con su sistema operativo de red basado en el cliente anterior, Windows NT. Windows 2000 y
XP combinan las tecnologías de Windows NT y agregan muchas nuevas funciones y mejoras. Windows
2000 y XP no están diseñados para ser un auténtico NOS para servidores. No proporcionan un
controlador de dominio, servidor DNS, servidor DHCP, ni entregan ninguno de los servicios que pueden
implementarse con la familia de servidores Windows 2000/2003. Su propósito principal es ser parte de
un dominio como sistema operativo del lado del cliente. El tipo de hardware que puede instalarse en el
sistema es limitado. Por ejemplo, muchos servidores requieren varios procesadores y/o NICs. Windows
2000 y XP Professional pueden soportar hasta dos procesadores. Si el sistema necesita hacer mucho
procesamiento de datos, se requeriría un sistema que soporte más de dos procesadores. Windows
2000 y XP Professional pueden proporcionar algunas capacidades de servidor para pequeñas redes.
Por ejemplo, 2000 y XP pueden servir como servidor de archivos, servidor de impresión, servidor FTP,
y servidor web. No obstante, será necesario actualizar a Windows 2000/2003 Server a un sitio FTP o
sitio web que vaya a recibir mucho tráfico simultáneo. Windows 2000 y XP Professional sólo soportarán
hasta diez conexiones simultáneas.
Windows 2000 y XP Professional soportan tecnología plug-and-play. Ambos OSs pueden ser
instalados utilizando el sistema de archivos FAT32 o NTFS, e incluyen cifrado de datos para asegurar
los datos del disco rígido. La tecnología plug-and-play es una herramienta muy útil que permite a un
administrador rápida y fácilmente agregar componentes al sistema. El OS reconocerá automáticamente
e instalará los controladores para el dispositivo. Esencialmente, una vez que el componente es
conectado al sistema, funcionará automáticamente sin configuración adicional del administrador. Antes,
cuando se agregaba un nuevo componente, había que instalar controladores y el dispositivo necesitaba
configurarse manualmente. Windows 2000 viene con una enorme base de datos para dispositivos plugand-play comunes.
Otras ventajas de Windows 2000 y XP Professional como sistema operativo de escritorio y cliente de
red incluyen las siguientes:
·
·
·
·
·
·
Ofrece un mejor soporte para usuarios móviles mediante la Administración Avanzada de
Energía (APM) y ACPI. Windows NT no soporta ACPI.
Proporciona un networking privado virtual más seguro con el Protocolo de Tunneling de Capa
2(L2TP) e IP Security (IPSec). Versiones anteriores de Windows soportaban sólo el Protocolo
de Tunneling Punto a Punto (PPTP) para las VPNs. L2TP es una extensión al protocolo PPP
que permite a los ISPs operar Redes Privadas Virtuales (VPNs). IPSec es un conjunto de
protocolos desarrollados para soportar un intercambio seguro de paquetes en la capa IP, que
también se utiliza en conexiones VPN.
La función carpetas offline permite a los usuarios copiar y sincronizar documentos desde la red
al sistema local para que pueda accederse a ellos cuando la computadora no está conectada a
la red.
El Protocolo de Impresión de Internet (IPP) permite a los usuarios imprimir un URL y
administrar impresoras mediante una interfaz de navegador web.
Defragmentadores de disco incorporados y otras herramientas y utilidades ayudan a los
usuarios a mantener y administrar el sistema operativo. Éstas tienen que adquirirse
separadamente a terceros en Windows NT.
Soporta seguridad Kerberos (estándar en desarrollo para autenticar a usuarios de red), y las
funciones de un dominio Windows 2000 como cliente de Active Directory.
Además de las ventajas anteriores, Windows XP proporciona unas pocas ventajas más allá de las
152
capacidades de Windows 2000. Algunas de ellas son:
·
·
·
·
·
·
·
Soporte a hardware y controladores más extensivo.
Archivos compartidos más amigables con el usuario y configuración de red para establecer
redes hogareñas.
Funciones de redes inalámbricas mejoradas.
Mayor seguridad.
Control de Escritorio Remoto.
Mejoras generales a la GUI, incluyendo las adiciones de pantalla de bienvenida, mejoras al
menú inicio, y más fácil administración de archivos con el windows explorer.
Soporte multimedia mejorado para video digital, audio e imágenes.
6.2
Windows
6.2.4
Sistemas Operativos Windows 2000 y 2003 Server
Los sistemas operativos Windows 2000 Server incluyen a Windows 2000 Server y Windows 2000
Advanced Server. Las necesidades específicas de la red determinarán la mejor versión de Windows
2000 para su instalación.
Windows 2000 Server
Windows 2000 Server incluye todas las funciones de la sección Windows 2000 Professional así como
muchas nuevas funciones específicas de un servidor. Windows 2000 Server también puede operar
como servidor de archivos, impresoras, web así como servidor de aplicaciones. Lo que separa a
Windows 2000 Server de Windows 2000 Professional es un completo conjunto de servicios de
infraestructura basados en servicios de Active Directory. Active Directory, similar a Novell NDS, sirve
como punto centralizado de administración de usuarios, grupos, servicios de seguridad, y recursos de
la red. Windows 2000 Server también soporta sistemas de Multiprocesamiento Simétrico (SMP) de
cuatro vías y permite hasta 4 gigabytes (GB) de memoria física. El multiprocesamiento simétrico es una
arquitectura informática que proporciona elevado desempeño haciendo que varias CPUs estén
disponibles para procesos individuales. El multiprocesamiento simétrico permite que varios
procesadores trabajen en paralelo y aún usen una única imagen de sistema operativo, memoria común
y recursos de I/O de disco. En pocas palabras, el Multiprocesamiento simétrico es cuando varios
procesadores trabajan juntos para compartir la carga de trabajo en una computadora. Incluye las
capacidades multipropósito requeridas para grupos de trabajo y sucursales así como para
implementaciones departamentales de servidores de archivos e impresión, servidores de aplicaciones,
servidores web, y servidores de comunicación. Windows 2000 Server tiene como objetivo su uso en
entornos empresariales de tamaño pequeño a mediano. Algunas otras mejoras que vienen con
Windows 2000 Server son soporte incorporado para los más importantes protocolos de red que están
en uso en las redes de hoy como TCP/IP e IPX/SPX. Windows 2000 Server proporciona conectividad
integrada con sistemas Novell NetWare, UNIX, y AppleTalk. Un Windows 2000 Server configurado
como servidor de comunicaciones puede proporcionar servicios de networking de conexión telefónica
153
para usuarios móviles. Windows 2000 Server puede soportar hasta 256 sesiones de conexión
telefónica entrantes simultáneas, en contraste con Windows 2000 Professional, que puede
proporcionar soporte para sólo una sesión de conexión telefónica a la vez.
Windows 2000 Advanced Server
Windows 2000 Server and Windows 2000 Advanced Server son lo mismo excepto en que Advanced
Server proporciona soporte para hardware y software que un administrador de sistemas necesitará en
una red empresarial y extremadamente grande que puede incluir varios vínculos WAN a oficinas de
todo el mundo. Advanced Server es un sistema operativo de servidor de aplicaciones y departamental
más potente que incluye todas las funciones de Windows 2000 Server y agrega la avanzada alta
disponibilidad y escalabilidad mejorada requerida para grandes redes. Windows 2000 Advanced Server
soporta SMP de ocho vías, lo cual sería ideal para trabajo intensivo en base de datos. Advanced
Server también proporciona soporte para hardware de alta potencia que soporta una red empresarial.
Por ejemplo, Advanced Server proporciona soporte para más de 4 GB de memoria física.
Windows .NET Server
Microsoft ha desarrollado Windows .NET Server con la capacidad para proporcionar un sistema seguro
y confiable para correr sitios web y FTP a nivel empresarial para competir con los sistemas operativos
Linux, UNIX y Novell Netware Server. Con la creciente emergencia del e-commerce, las compañías
basadas en la web, y las compañías que están expandiendo sus servicios a Internet, existe la
necesidad de un servidor que sea capaz de proporcionar servicios web y FTP seguros y confiables.
Windows .NET Server, que está armado sobre el Kernel de Windows 2000 Server, está
específicamente adaptado para proporcionar estos tipos de servicios. El Windows .NET Server
proporciona servicios web XML a compañías que corren tráfico web de medio a alto volumen. .NET
server proporcionará soporte a las compañías que están comenzando en esta nueva generación de
negocios así como negocios que han estado proporcionando soluciones de negocios basadas en
Internet durante algún tiempo. La Figura proporciona una comparación de la familia de Sistemas
Operativos Windows 2000.
Windows 2003 Server
Las versiones de Windows 2003 Server incluyen la Standard Edition, Enterprise Edition, Datacenter
Edition, Web Edition, y Small Business Server Edition. Siga el vínculo de más abajo para aprender más
y comparar las especificaciones de las diferencias entre las ediciones de Windows 2003 Server. Una
de las principales funciones que Microsoft ha implementado para su lanzamiento de 2003 Server es
soporte disponible para sistemas de 64 bits para poder competir en la arena de los servidores a nivel
empresarial. Muchas de las mismas funciones que se incluyeron en la edición Windows 2000 Server
siguen estando en 2003 Server Edition, no obstante Microsoft afirma que ha mejorado la eficiencia
general de las funciones. Algunas de las principales características que han sido agregadas a 2003
154
server que no estaban en 2000 Server son las siguientes:
·
·
·
·
·
·
·
·
·
·
·
·
Servicios de clustering y equilibrio de carga mejorados.
Construcción y hosting de aplicaciones web, páginas web, y Servicios Web XML.
Desarrollo e implementación de servicios Web XML y aplicaciones que usan la tecnología
ASP.NET.
Arquitectura de Seguridad de Internet.
Servicios de Red Inalámbricos.
Servicios y Soporte Metadirectorio.
Firewall de Conexión a Internet.
Infraestructura de Clave Pública, Servicios de Certificados, y Smart Cards.
Escritorio Remoto para la Administración y Servidor de Terminal Integrados.
Servicios para interoperabilidad con UNIX
Soporte a la Red Privada Virtual (VPN).
Soporte para IPv6.
6.3
Linux
6.3.1
Historia de Linux
Linux es un sistema operativo similar a UNIX. Se ejecuta en computadoras muy diferentes. Linux fue
lanzado en 1991 por su autor Linus Torvalds de la Universidad de Helsinki. Desde entonces, Linux ha
crecido en popularidad a medida que programadores de todo el mundo adoptaron la idea de construir
un sistema operativo gratuito, agregar funciones y resolver problemas. Linux es popular entre la
generación actual de usuarios de computadoras por la misma razón que las primeras versiones del
sistema operativo UNIX tentaron a los usuarios hace más de 20 años. Linux es portátil, lo que significa
que las versiones pueden hallarse funcionando en PCs de marca o clones, Apple Macintosh,
estaciones de trabajo Sun, o computadoras basadas en Alpha de Digital Equipment Corporation. Linux
también viene con código fuente, para que el usuario pueda cambiar o personalizar el software para
adaptarlo a sus necesidades. Finalmente, Linux ofrece muchas características adoptadas de otras
versiones de UNIX. La Figura muestra una línea de tiempo del desarrollo de UNIX/Linux.
La Iniciativa Fuente Abierta
La Iniciativa Fuente Abierta proporciona una marca registrada para desarrolladores de software que
desean compartir, modificar y redistribuir su código. Para usar la marca registrada, el software debe
cumplir con ciertos criterios. Debe ser distribuido gratuitamente sin restricción y el código fuente debe
estar disponible. Ejemplos de software que cumplen estos requisitos son Linux, la versión Berkeley
155
Software Design (BSD) de UNIX, el Sistema X Window, y las aplicaciones desarrolladas bajo el
proyecto GNU.
6.3
Linux
6.3.2
¿Qué es UNIX?
Es importante mencionar las funciones y usos de UNIX al tratar Linux. El NOS UNIX fue desarrollado
en 1969, y ha evolucionado en muchas variedades. El código fuente es abierto, es decir, disponible sin
costo a cualquiera que desee modificarlo. Además, está escrito en lenguaje de programación C, para
que los negocios, instituciones académicas, e incluso individuos puedan desarrollar sus propias
versiones.
Los sistemas operativos UNIX se usan en estaciones de trabajo de alto propósito, como máquinas
Silicon Graphics y Sun. UNIX puede ejecutarse como sistema operativo de línea de comandos o con
una interfaz gráfica del usuario (GUI) como X Window. La Figura proporciona un ejemplo de la GUI X
Window de UNIX.
Sistemas Operativos UNIX
Hay cientos de diferentes versiones de UNIX. Algunas de las más populares son las siguientes:
·
·
·
·
·
Berkeley Software Design, Inc, (BSD UNIX, que ha originado variantes como FreeBSD)
Santa Cruz Operation (SCO) UNIX
Sun Solaris
AIX (IBM's UNIX)
HP-UX (Hewlett Packard UNIX)
El código de fuente abierta es tanto la fortaleza como la debilidad del sistema operativo UNIX. Los
desarrolladores se ven libres de mejorar y personalizar el sistema operativo. Aunque esto resulta en
una falta de normalización que pueda frustrar a los usuarios, administradores y desarrolladores de
aplicaciones, hay un gran cuerpo de software de aplicaciones que puede usarse en plataformas UNIX y
Linux.
A pesar de la popularidad de Windows y NetWare en LANs corporativas, gran parte de Internet todavía
corre en potentes sistemas UNIX. UNIX se asocia en general con hardware caro y se considera "no
amigable con el usuario" pero recientes desarrollos han cambiado esa imagen. En particular, el
surgimiento en los '90 de Linux ha llevado la informática UNIX al mundo de la PC.
156
6.3
Linux
6.3.3
Sistema Operativo Linux
Linux se denomina en ocasiones "UNIX Lite", y está diseñado para ejecutarse en PCs compatibles con
Intel. No obstante, Linux se ejecutará en otras máquinas también. Linux lleva las ventajas de UNIX a
las computadoras hogareñas y de pequeños negocios.
Al igual que sucede con UNIX, existen numerosas distribuciones de Linux. Una distribución incluye
elementos tales como un programa de instalación, un kernel, scripts de inicio, archivos de
configuración, y software de soporte crítico. Las diferentes distribuciones pueden usar versiones
completamente diferentes de cualquiera o todas estas características, lo cual producirá un aspecto
claramente diferente. En total, existen de 24 a 36 distribuciones importantes diferentes disponibles.
Además de eso, hay varias otras menos populares y especializadas ediciones de Linux. Algunas de
estas distribuciones son descargas gratuitas de la World Wide Web, y otras se distribuyen
comercialmente. Las siguientes son algunas de las más populares.
Red Hat Linux (http://www.redhat.com/)
Red Hat Linux es una de las versiones más antiguas de Linux y ha sido también una de las
distribuciones más influyentes. Red Hat Linux es famosa por crear el formato RPM que ahora es usado
por otras distribuciones ni siquiera basadas en Red Hat. Red Hat contiene un proceso de instalación de
la GUI así como herramientas para la configuración de la GUI. Red Hat es compatible con varias CPUs,
incluyendo x86, IA-64, y Alpha. Un gráfico de muestra del packaging de Red Hat Linux se muestra en la
Figura .
Linux Mandrake (http://www.mandriva.com/en/
community/resources/about_mandriva_linux)
Mandrake es una versión de Linux de origen francés y probablemente la versión más similar a Red Hat
Linux. Mandrake se desarrolló originalmente como una versión de Red Hat con el Entorno de Escritorio
K (KDE). Desde entonces Mandrake ha desarrollado una identidad propia que tiene un proceso de
instalación de la GUI así como diferentes características para su configuración de servidor. Por
ejemplo, Mandrake usa Postfix, en lugar de Sendmail como servidor de correo. Mandrake es
compatible con diversos tipos de CPUs incluyendo x86, IA-64, SPARC, Alpha, y PowerPC. Una captura
de pantalla de muestra de Mandrake Linux se muestra en la Figura . Note cómo se parece a Red Hat.
157
Caldera eDesktop and eServer (http://www.caldera.com/)
Como se nota por sus nombres, esta versión de Linux ha sido lanzada por Caldera, así como Red Hat
lanza Red Hat. También Caldera Linux tiene dos versiones, una de las cuales está dirigida a estaciones
de trabajo solamente y la otra está dirigida a servidores solamente. Como Red Hat, Caldera Linux está
basado en RPM y tiene herramientas de configuración de la GUI muy sofisticadas. No obstante, la
distribución Caldera de Linux no deriva de Red Hat en absoluto. Caldera Linux está sólo disponible en
una CPU x86. Una captura de pantalla de muestra de Caldera Linux se muestra en la Figura .
Debian GNU/Linux (http://www.debian.org/)
Esta distribución de Linux es diferente de las otras distribuciones en que fue construida únicamente
para usos sin fines de lucro. Las otras distribuciones fueron construidas principalmente para compañías
con fines de lucro. Esto hace de Debian Linux una opción muy popular para muchos de los usuarios a
quienes les interesa la iniciativa de fuente abierta. También otorga a los usuarios la capacidad para
personalizar estos archivos según su propio gusto. Debian usa muchas de las herramientas de
configuración de la GUI usadas por las otras versiones de Linux. Debian Linux puede usarse en
procesadores x86, PowerPC, Alpha, SPARC, y 680x0. La Figura muestra una captura de pantalla de
Debian Linux.
158
Corel Linux (http://corel.linux.com)
La distribución Corel Linux se basa en Debian GNU/Linux pero tiene algunas características amigables
con el usuario que han sido agregadas, como un nuevo proceso de instalación y nuevas herramientas
de configuración de la GUI. Por ello, no obstante, ejecutar comandos Linux tradicionales desde la línea
de comandos no siempre funcionará. Corel Linux está diseñado principalmente para uso en
escritorio/estación de trabajo y está dirigido a principiantes en Linux que están familiarizados en el uso
de Microsoft Windows. Corel Linux sólo está disponible en una CPU x86. Una captura de pantalla de
muestra de Corel Linux se muestra en la Figura .
LinuxPPC
Esta distribución de Linux está específicamente diseñada para su uso en sistemas con una CPU
PowerPC. La CPU PowerPC es la CPU que se usa en todo sistema Macintosh moderno y por lo tanto
LinuxPPC también está diseñada para el mercado Macintosh. Esta distribución es un derivado de Red
Hat que tiene como propósito el uso en PCs Macintosh. Una captura de pantalla de LinuxPPC se
muestra en la Figura .
159
Slackware (http://www.slackware.com/)
Slackware es una distribución de Linux que es muy similar a Debian Linux en que está dirigida a
usuarios avanzados que prefieren el entorno estándar UNIX en Linux. Slackware usa todas las
herramientas de configuración basadas en texto y no usa ninguna GUI para estas configuraciones. Es
también la más antigua distribución Linux disponible y es la única distribución que se basa en la
administración de paquetes. Slackware puede ejecutarse en CPUs x86, Alpha, y SPARC.
Storm Linux (http://www.stormlinux.com/)
Storm Linux es distribuida por Stormix. Como Slackware, Storm Linux es una variante de Debian Linux.
Storm Linux también es similar a Corel Linux en el hecho de que agrega herramientas de configuración
para la GUI al núcleo de Debian. No obstante, Storm Linux difiere de Corel Linux en que no es tan
dependiente de estas herramientas como lo es Corel Linux. Storm Linux sólo puede ejecutarse en
procesadores x86.
SuSE Linux (http://www.suse.com/)
Esta distribución de Linux es popular en Europa y es producida por una compañía alemana. Al igual
que Red Hat Linux, SuSE Linux puede usar RPMs, pero en otros aspectos no se basa en Red Hat.
SuSE usa software DVD-ROM para abrir paquetes, si el sistema tiene una unidad de DVD-ROM. A
diferencia de las otras distribuciones, SuSE Linux incluye alrededor de media docena de CDs, que
contienen prácticamente cualquier paquete que un usuario podría desear para el sistema Linux. A
veces puede ser difícil buscar en estos CDs para encontrar el paquete que se necesita. SuSE Linux
también viene con las herramientas de configuración e instalación de la GUI esenciales. SuSE Linux
puede instalarse en sistemas que usen procesadores x86, IA-64, PowerPC, y Alpha.
Turbo Linux (http://www.turbolinux.com/)
Turbo Linux está estrictamente dirigido hacia el mercado de servidores y se deriva de Red Hat Linux.
Turbo Linux contiene fuerte soporte para Idiomas Asiáticos. Turbo Linux puede instalarse en
procesadores x86, IA-64, y Alpha.
Yellow Dog Linux (http://www.yellowdoglinux.com/)
Yellow Dog Linux es similar a LinuxPPC en dos aspectos. Primero, también se deriva de Red Hat
Linux, y está principalmente diseñado para ejecutarse en procesadores PowerPC, lo que lo hace
principalmente para sistemas Macintosh.
Una reciente tendencia ha sido crear versiones de Linux que encajen en uno o dos diskettes. Una
versión así recortada se llama "Linux On A Floppy" (LOAF), que entra en un disco. DOS Linux es otro
NOS Linux pequeño y puede instalarse en un sistema DOS existente. Un tercero, Coyote Linux, es una
distribución pequeña y especializada diseñada para compartir una conexión a Internet.
160
Con todas las diferentes distribuciones de Linux disponibles en el mercado puede resultar
difícil elegir cuál usar. Pero algunos de los factores obvios, como el procesador que el sistema
informático está usando, ayudarán a decidir qué de qué distribuciones elegir. Algunos de los
otros factores que pueden ayudar a reducir la decisión son qué tipo de sistema está
construyendo el usuario. Si el sistema es un servidor entonces podría pensarse en Caldera
eServer o Turbo Linux, que están específicamente dirigidos hacia el mercado de servidores. No
obstante, tenga en cuenta que muchas de las otras distribuciones de Linux pueden usarse para
ejecutarse en servidores también. Otro factor que podría determinar qué versión usar sería si el
usuario está interesado en usar una GUI o no. Por último, los usuarios podrían pensar en sus
niveles de experiencia. Si son nuevos para Linux entonces Caldera eDesktop, Corel, o
Mandrake Linux podrían ser una buena opción para ellos.
6.3
Linux
6.3.4
Clientes Linux
Los clientes Windows pueden acceder a recursos y servidores Linux. El sistema de archivos
cliente/servidor usado por la mayor parte de variedades de servidores de archivos Linux es un Sistema
de Archivos de Red (NFS), que fue desarrollado por Sun Microsystems. Puede instalarse en clientes
Windows que usan software tal como Solstice Network Client de Sun. NFS requiere TCP/IP, u otro
software cliente NFS, para la transferencia de archivos. Los sistemas operativos Windows no incluyen
un cliente NFS.
Los clientes Windows pueden acceder a los servidores Linux sin software cliente si los servidores UNIX
ejecutan Samba, que es un programa que usa el protocolo de capa de aplicación Server Message
Block (SMB). Las computadoras Windows usan SMB para el acceso a archivos a través de la red.
Samba les permite ver el sistema de archivos Linux. La Figura ilustra cómo un servidor Samba
permitirá que diferentes tipos de sistemas accedan al servidor de archivos Samba.
6.4
Determinación de los Requisitos de Software para un NOS Linux
6.4.1
Software y programas de la estación de trabajo
La mayor parte del software y los programas que un usuario encontraría en una estación de trabajo
Linux están diseñados para ayudar al usuario a hacer su trabajo. Una Estación de Trabajo Linux no
necesitará ninguno de los programas o software que el usuario normalmente encontraría en un sistema
Linux configurado como servidor. Si cualquier software o programas de servidor de correo se instalaran
en una estación de trabajo Linux, ésta sería un servidor de correo, que proporciona servicios locales
para enviar y recibir e-mail.
161
El Sistema X Window
El Sistema X Window (abreviado, X) es lo que forma el entorno GUI de Linux. Linux es capaz de correr
sin una GUI, no obstante, si un usuario está configurando Linux como estación de trabajo entonces lo
más probable es que el usuario quiera asegurarse de que el Sistema X Window está instalado mediante
el paquete Xfree86. Instalar y configurar X Window y el paquete Xfree86 se tratará en detalle en
posteriores capítulos. Existen varias razones por las cuales el Sistema X Window debe instalarse en
una estación de trabajo Linux. La más importante es porque casi todos los programas de una estación
de trabajo requieren X Window para poder ejecutarse.
Existen varias herramientas adicionales que también son parte del Sistema X Window que ayudan a la
GUI a operar y ejecutarse sin problemas. Éstas incluyen Window Managers, que proporciona límites y
control en torno a las ventanas, y Desktop Environments. Desktop Environments incluye varias
utilidades adicionales que ayudan a un usuario a personalizar y controlar su entorno de trabajo. Dos de
los más populares Desktop Environments que vienen con Linux son el Entorno de Escritorio K (KDE,
http://www.kde.org/) y el GNU Network Object Model Environment (GNOME, http://www.gnome.org/).
Herramientas de Oficina
Tener un software de suite de oficina eficiente es obligatorio para cualquier estación de trabajo,
especialmente si la estación de trabajo es parte de una red y se encuentra en una compañía. Si Linux
ha tenido algún defecto, ha sido en su falta de proporcionamiento de software de suite de oficina que se
ejecute en Linux pero que sea tan bueno como Microsoft Office. No obstante, Linux sí tiene la
capacidad de ejecutar software de suite de oficina. WordPerfect de Corel y Sun StarOffice son los dos
software de suite de oficina principales de los capaces de ejecutarse en Linux. StarOffice puede ser una
opción popular en Linux porque también puede usarse en Windows. Esto ayuda a evitar cualquier
problema de compatibilidad en un entorno donde hay computadoras tanto Linux como Windows. Otras
alternativas de suite de oficina son ApplixWare de Applix (http://www.applix.com/). La Figura muestra
un ejemplo de la suite de oficina ApplixWare. También hay paquetes únicos en lugar de suites de
oficina completas que vienen con Linux y algunos son instalados por defecto durante el proceso de
instalación. Algunos ejemplos de ellos son LyX (http://www.lyx.org/) y AbiWord
(http://www.abisource.com/). La Figura muestra un ejemplo de la herramienta procesadora de texto
LyX. La Figura muestra un ejemplo de la herramienta procesadora de texto AbiWord. Éstos son dos
procesadores de texto populares que pueden instalarse sin tener que instalar una suite de oficina
completa.
162
Clientes de Red
Una estación de trabajo que funciona en una red empresarial o incluso una pequeña red necesitará
poder acceder a recursos de networking. Las estaciones de trabajo usan una variedad de software de
cliente de red para ello. Ejemplos incluyen navegadores web como Netscape u Opera, lectores de
correo como KMail, y clientes FTP como gFTP. Existe una amplia variedad de clientes de red que se
incluyen con cada distribución de Linux que un usuario podría necesitar. No obstante, si hay un cliente
de red que se necesite que no se incluye en los CDs de instalación, éstos son fácilmente descargables
desde Internet.
Programas y Software Audiovisuales
Con la cantidad de funciones multimedia que las computadoras son capaces de realizar, una estación
de trabajo no podría competir a menos que proporcionara los programas y el software disponibles para
ver, reproducir y editar archivos de video, gráficos y de música. Estas funciones no sólo son
importantes para el usuario hogareño sino que también pueden ser importantes en un negocio. Artistas
gráficos, diseñadoresde web y arquitectos, todos necesitarán tener estas características disponibles en
sus sistemas. Algunos de los programas audiovisuales populares disponibles para Linux incluyen
herramientas para visualizar y editar gráficos como XV (http://www.trilion.com/) y GIMP
(http://www.gimp.org/); reproductores multimedia como Xanim (http://xanim.va.pubnix.com); editores de
audio/video como Broadcast (http://heroines.sourceforge.net/bcast2000.php3) y Linux Video Studio
(http://ronald.bitfreak.net/lvs/). La Figura proporciona un ejemplo de algunas de las herramientas de
edición disponibles con GIMP. Los programas audiovisuales son otra área en la que Linux, en pasados
años, no ha podido competir, al igual que ocurre con las suites de oficina. No obstante, desde entonces,
un mejor software ha comenzado a emerger que se ha vuelto capaz de proporcionar estas funciones
multimedia a un usuario Linux.
163
6.4
Determinación de los Requisitos de Software para un NOS Linux
6.4.2
Software y programas para servidores
El software y los programas instalados en un servidor lo son con el propósito de proporcionar alguna
clase de servicio a otros sistemas informáticos que están conectados a él a través de una red. El
software y los programas que se ejecutan en un servidor se usan de manera diferente que el software y
los programas que se instalan en una estación de trabajo. Los usuarios no usan directamente el
software o los programas que están en el servidor. En general, el administrador del servidor será el
único usuario que usa el software e incluso entonces no será muy usado. En cambio, el software y los
programas que se instalan en los servidores se están ejecutando constantemente en segundo plano en
el servidor. Cuando una computadora cliente hace una solicitud, el servidor responderá a esa solicitud.
Servidores Web
Uno de los usos más populares de un sistema Linux en el mundo de hoy es como servidor web. El
software de servidores web usa el Protocolo de Transferencia de Hipertexto (HTTP) para entregar
archivos a usuarios que lo solicitan, usando un navegador web desde su estación de trabajo. El
software de servidor web más popular disponible para Linux es Apache (http://www.apache.org/), un
programa de fuente abierta que viene incluido con el CD de instalación. Otro software de servidor web
disponible para Linux es Roxen y thttpd. Roxen está diseñado como servidor web comercial de alta
potencia y thttp está más orientado a sitios web pequeños y de bajo tráfico.
Servidores de Correo
Un Servidor de Correo es un sistema que está configurado con los programas y servicios apropiados
que permiten al servidor manejar el intercambio de e-mail que se está enviando de un cliente a otro.
Este intercambio se tratará en capítulos posteriores. Cada distribución de Linux incluye un servidor de
correo. Una versión que es popular y viene con Red Hat es Sendmail (http://www.sendmail.org/). Otros
servidores de correo populares disponibles para Linux incluyen Exim (http://www.exim.org/) y Postfix
(http://www.postfix.org/). Estos servidores de correo usan una variedad de protocolos para recibir el
correo entrante y luego distribuir el correo saliente a las ubicaciones apropiadas. Por ejemplo, el
Protocolo de Transferencia de Mail Simple (SMTP) se usa para entregar correo entre servidores de
correo a través de Internet. SMTP también se usa en redes de área local (LANs) para transferir correo.
Cada distribución de Linux incluye servidores Post Office Protocol (POP) e Internet Message Access
Protocol (IMAP). Estos protocolos se usan para enviar el correo a los usuarios finales o a la
computadora de destino dentro de la LAN.
Muchos servidores Linux se basan en el protocolo SMTP para otros servicios también. Por ejemplo, el
SMTP se usa para entregar importantes informes del estado del sistema al administrador del sistema.
Por esta razón, se recomienda que el servidor SMTP de un sistema Linux nunca se inhabilite, incluso
aunque no sea un servidor de correo.
164
Servidores de Inicio de Sesión Remoto
Acceder a un servidor remotamente así como los muchos diferentes programas que podrían usarse se
trató en el Capítulo 5, "Descripción General de los Servicios de Red". El servidor de inicio de sesión
más conocido es Telnet. En Linux, el servidor telnetd o in.telnetd ejecuta el protocolo Telnet.
El servidor Telnet está incluido en cada distribución de Linux. No obstante, no está habilitado por
defecto. Nunca use el protocolo Telnet en un sistema Linux, y manténgalo inhabilitado a causa de los
problemas de seguridad. Telnet no es un protocolo seguro y es susceptible de ser interceptado
mientras se transfieren archivos entre dos sistemas, comprometiendo así datos importantes. Otros
servidores de inicio de sesión remoto están disponibles pero una mejor alternativa a Telnet es el
Protocolo de Shell Seguro (SSH). SSH cifra todos los datos que se envían entre dos sistemas haciendo
inservibles a los datos interceptados.
Servidores de Acceso a Archivos
El sistema operativo Linux proporciona un medio excelente de servidor de archivos en un entorno Linux
o en un entorno multiplataforma que consista en estaciones de trabajo Windows, Macintosh, UNIX, u
OS/2. La razón es que Linux soporta muchos protocolos para compartir archivos que pueden
configurarse para permitir el acceso mediante todos estos sistemas operativos.
Un servidor de archivos Linux permite a los usuarios leer y escribir archivos y directorios desde una
ubicación remota. Existen varios protocolos que pueden usarse para lograr esto. El Protocolo de
Transferencia de Archivos (FTP) es más bien un medio tradicional de transferir archivos a un servidor
de archivos. Existen otros protocolos, software y programas que pueden instalarse en un servidor Linux
que permitirán que una computadora trate a los archivos y directorios ubicados en el servidor de
archivos como si fueran locales. El Sistema de Archivos de Red (NFS) de Sun es un ejemplo de este
tipo de programa, que puede usarse para compartir archivos entre sistemas UNIX y Linux. El Server
Message Block (SMB) funciona casi de la misma forma que el NFS pero se usa para permitir que otros
OSs como sistemas DOS, Windows, NetWare, Macintosh, y OS/2 accedan a un servidor de archivos
Linux. Los sistemas DOS y Windows usan el protocolo SMB. NetWare usa los paquetes mars_new y
lwared. Macintosh usa Applshare a través de Netatalk.
Otros Servidores Linux
Los diferentes tipos de servidores y programas Linux que se instalan y se mencionaron antes son los
que un usuario más probablemente encuentre en una mayoría de servidores de cualquier compañía de
tamaño mediano a grande. No obstante, esta lista está lejos de ser completa. Muchos de los otros tipos
de servidores que se usan pueden no serlo tan ampliamente o simplemente no pueden clasificarse en
ninguna categoría específica. Algunos ejemplos de estos tipos de servidores incluyen a Squid
(http://www.squid-cache.org/), que es un servidor proxy Linux. Los servidores proxy controlan cosas
como la seguridad de la red restringiendo el acceso a Internet. Los servidores DHCP y DNS recaen
también en esta categoría.
También es importante mencionar aquí las herramientas ipchains e iptables, incluso aunque pueden no
considerarse servidores de verdad. Estas herramientas se usan al configurar un sistema Linux como
firewall, lo cual se trató en capítulos anteriores. Estas herramientas son herramientas de seguridad que
pueden bloquear el acceso al servidor basándose en direcciones IP o números de puerto. La diferencia
entre los dos es que ipchains se usa en sistemas Linux que corren el kernel serie 2.2.x e iptables
funciona con los kernels más nuevos 2.4.x.
165
6.4
Determinación de los Requisitos de Software para un NOS Linux
6.4.3
Software y programas adicionales
Las dos secciones anteriores trataban muchos de los programas y software esenciales que es
necesario instalar en una estación de trabajo o servidor. No obstante, existen programas y software
esenciales para agregar a un sistema Linux independientemente de si está configurado como estación
de trabajo o servidor. Estos programas ayudarán a un usuario a llevar a cabo tareas comunes del
usuario en su estación de trabajo pero permiten a un administrador administrar apropiadamente un
sistema.
Editores de Texto
Los editores de texto son una herramienta valiosa que recibirá mucho uso en cualquier sistema Linux,
ya sea estación de trabajo o servidor. Algunos ejemplos de editores de texto disponibles en Linux son
vi, jed, pico, o Emacs. Cómo usar estos editores de texto se tratará en detalle en posteriores capítulos.
Estos editores de texto son esenciales para llevar a cabo cualquier tipo de tareas de mantenimiento que
un usuario o administrador pueda necesitar hacer.
Los cuatro editores mencionados más arriba son todos ellos editores basados en texto, un par de ellos
tienen algunas extensiones X, lo cual les permite ejecutarse en un entorno GUI. Un ejemplo de estas
extensiones X es XEmacs (http://www.xemacs.org/), que es una versión mejorada de Emacs. La Figura
proporciona un ejemplo del editor de texto XEmacs. Existe otros editores de texto también que están
diseñados como editores de texto estrictamente GUI. Nedit (http://www.nedit.org/), que se muestra en la
Figura , gEdit (se ejecuta con GNOME), que se muestra en la Figura , y KEdit (se ejecuta con KDE),
que se muestra en la Figura , son todos ejemplos de editores de texto GUI. Estos editores de texto
GUI pueden ser más fáciles de usar. No obstante, hay algunas instancias en las cuales éstos no
pueden usarse y sí en cambio un editor de texto no GUI. Por lo tanto, es una buena idea sentirse
cómodo también en el uso de uno de los editores de texto no GUI. Un ejemplo de cuándo esto podría
ocurrir es cuando un usuario está haciendo telnet a un servidor remoto. Cuando el usuario hace telnet
al servidor, estará restringido al modo sólo texto y por lo tanto se verá forzado a usar uno de los
editores de texto. Otra instancia es que no todos los sistemas Linux tiene instalado X Window. Si la GUI
no está instalada, la opción de usar un editor de texto GUI no estará disponible.
166
Herramientas de Programación
Las herramientas de programación son muy útiles para cualquier administrador que esté ejecutando
servidores Linux así como para usuarios específicos en estaciones de trabajo si son programadores.
Estas herramientas de programación también se denominan compiladores o intérpretes. Un compilador
convierte el código fuente del programa, que está escrito por el programador, a forma binaria que la
computadora pueda leer. Si el lenguaje de programación es interpretado entonces el lenguaje de
programación no es convertido, sólo es traducido a código de máquina inmediatamente. Linux incluye
una variedad de diferentes tipos de compiladores. El más conocido e importante de estos compiladores
es probablemente el Compilador GNU C (GCC). No obstante, como administrador, si un administrador
está instalando estos compiladores en una estación de trabajo para un usuario, es una buena idea
preguntarle al usuario qué herramientas de programación específicas necesitará.
Algunos otros tipos de herramientas de programación son dignas de mención porque dependiendo de
los usuarios o del tipo de servidor, puede ser necesario instalar estas otras herramientas de
programación. Algunos de estos tipos de herramientas de programación se denominan lenguajes de
script. Lenguajes de script comunes incluyen Javascript, Python, y Perl. Estas herramientas de
programación pueden ser usadas tanto por programadores que usan una estación de trabajo para crear
scripts para software que podrían estar desarrollando o por administradores que usan un servidor para
ejecutar scripts en él.
167
Librerías
Las librerías no se consideran software en general sino que son conjuntos de rutinas que son usadas
por el software. El código Linux está principalmente escrito en código de programación C. Cada sistema
Linux se basa en una librería llamada la librería C (libc). Los sistemas Linux se basan en la librería C
para las rutinas que son necesarias para que los programas C se ejecuten en Linux. Si un usuario está
intentando instalar un paquete, el usuario también debe tener la librería apropiada instalada para que el
programa se ejecute. Si el usuario no tiene instalada la librería apropiada, se generará un mensaje de
error para advertir al usuario sobre el problema.
6.4
Determinación de los Requisitos de Software para un NOS Linux
6.4.4
Verificación de la compatibilidad del software
En su mayor parte, al instalar software en un sistema Linux de paquetes que se incluyen en el CD, los
paquetes funcionarán. Algunos paquetes tienen una dependencia, lo cual significa que requieren la
instalación de otros paquetes también para que se ejecuten correctamente. Todas las distribuciones
importantes tienen administradores de paquetes, que se trataron en capítulos anteriores, que rastrean
esto y cuando notan que un paquete que está siendo instalado tiene dependencias, aparecerá un
mensaje proporcionando al usuario información sobre qué paquetes adicionales necesitarán instalarse.
Puede que sea necesario tomar medidas extra cuando se instalan paquetes no incluidos en el CD de
distribución. Siempre es una buena práctica verificar con el sitio web del fabricante o en la
documentación de los paquetes para ver qué requisitos puede ser necesario instalar. Algunos de estos
requisitos incluyen sistemas operativos soportados, distribuciones soportadas, requisitos de CPU,
requisitos de librerías, y herramientas y librerías de desarrollo.
Sistemas Operativos Soportados
Al instalar un paquete, el primer paso deberá ser siempre verificar y asegurarse de que el sistema
operativo soporta el paquete. En general, cualquier software y paquetes Linux puede instalarse en
cualquier sistema operativo semejante a UNIX. No obstante, ésta no es siempre la regla. Siempre es
una buena idea verificar primero. El software y los paquetes UNIX deberán ejecutarse en general en la
mayoría de los sistemas Linux porque serán capaces de compilar el código fuente. No obstante, deberá
tenerse cuidado al hacerlo, ya que éste no siempre es el caso. A veces si un paquete es muy grande,
la instalación puede encontrarse con algunos problemas si no está explícitamente diseñada para
ejecutarse con Linux.
Distribuciones Soportadas
Las mismas reglas que se aplican a la verificación de la compatibilidad con el sistema operativo se
aplican a la compatibilidad con la distribución. En general, es posible instalar paquetes diseñados para
instalarse en una distribución, para que se ejecuten en otra. A menudo este proceso es simple y otras
veces el usuario tendrá que instalar una serie de dependencias para que un paquete funcione cuando
no está explícitamente diseñado para ejecutarse en esa distribución en particular.
Requisitos de CPU
Es importante verificar la compatibilidad con la CPU al instalar software que viene en código fuente y
debe ser compilado por la CPU. La razón principal para esto es que no todas las CPU son capaces de
compilar el software correctamente. Un ejemplo de esto son los programas sólo binario que sólo se
ejecutarán en CPUs x86 o PowerPC.
Requisitos de librerías
Las librerías se trataron en las secciones anteriores y también se mencionó cómo determinados
paquetes requieren la instalación de determinadas librerías para poder ejecutarse. Es una buena
práctica verificar qué librería requiere un paquete en particular.
Herramientas y Librerías de Desarrollo
Las herramientas de desarrollo y las librerías de desarrollo no son algo por lo que el usuario cotidiano
necesitará preocuparse. Éstas son herramientas para programadores que deseen compilar programas
por sí mismos. La principal preocupación a tener en cuenta aquí es que un usuario necesita estar
seguro de que estén instaladas las herramientas de y librerías de desarrollo. Por ejemplo, si un
programa está escrito en C++, el usuario necesitará un compilador C++.
168
Resumen
Este capítulo trató los sistemas operativos de red (NOSs). Algunos de los conceptos importantes
a retener de este capítulo incluyen los siguientes:
·
·
·
·
·
Los NOSs distribuyen sus funciones a través de una cantidad de computadoras en red.
Dependen del OS nativo de cada computadora individual y luego agregan funciones para
que los recursos puedan compartirse concurrentemente.
Los servidores NOS deben ejecutar sistemas operativos con características que se
extienden más allá de las de las PCs cliente. Para poder soportar varios usuarios
concurrentes y para proporcionar acceso compartido a los servicios, recursos y
dispositivos de la red, los servicios NOS deben ser multiusuario, multitareas, y soportar
varios procesadores.
Linux es un sistema operativo semejante a UNIX que incluye código fuente, para que el
usuario pueda cambiar o personalizar el software para que se adapte a necesidades
específicas. La Iniciativa Fuente Abierta proporciona una marca registrada par los
desarrolladores de software que deseen compartir, modificar y redistribuir su código.
Existen diversas distribuciones diferentes de Linux disponibles. Cuál de ellas utilizar
depende de muchas cosas. Algunas de las consideraciones básicas al decidir qué
versión de Linux usar son factores tales como quién va a usar el sistema y qué tipo de
trabajo va a hacer con él. Otros factores pueden incluir qué tipo de hardware puede
instalarse si el sistema va a utilizarse como estación de trabajo o servidor.
Incluso después de una instalación exitosa de Linux, habrá otros tipos de problemas de
compatibilidad de software que será necesario tratar. Varios criterios, como el hardware
o para qué se utilizará el sistema determinarán qué tipo de software instalar.
7. Instalación
Descripción general
A un profesional IT se le pide en general que efectúe instalaciones de software, incluyendo
software de aplicaciones y sistemas operativos. Instalar un sistema operativo (OS),
especialmente un sistema operativo de red (NOS), puede ser una de las tareas de instalación
más complejas. Este capítulo es una descripción general del proceso de instalación de un NOS,
incluyendo cómo planificar la instalación y cómo resolver los problemas que se presenten.
7.1
Preparación para la Instalación
7.1.1
Instalación de un NOS
La instalación de un sistema operativo de red (NOS) se refiere al proceso de crear y copiar archivos del
sistema del NOS a un disco rígido. Los archivos del sistema son los archivos que permiten el
funcionamiento del sistema operativo. Muchos fabricantes envían las computadoras con el sistema
operativo ya instalado. Esto es especialmente cierto en el caso de las computadoras de escritorio.
Los sistemas operativos (OSs) preinstalados o software NOS tienen varias ventajas. Adquiriendo una
PC o servidor con un OS preinstalado, un cliente evita el complejo proceso de instalación y
configuración. Además, un OS que está pre-cargado en un sistema está en general optimizado para la
configuración de hardware particular de ese sistema.
169
La desventaja de la preinstalación es que un cliente puede no ser capaz de controlar las
características, paquetes y configuración exactos del OS o NOS. Aunque es posible hacer cambios a
un OS después del proceso de instalación, hay algunas configuraciones que no pueden deshacerse o
que sólo pueden modificarse con extrema dificultad.
A pesar de estas desventajas, algunos clientes pueden desear que el fabricante del servidor instale un
NOS antes de enviar el sistema. No obstante, la mayoría de las organizaciones instalan el NOS ellas
mismas. Hacer la instalación en la organización asegura que el servidor esté optimizado para las
funciones específicas de la organización. Además, los administradores de NOS usualmente prefieren
tener un control directo de las versiones de software, actualizaciones, y patches instalados en el
sistema. La Figura ilustra un ejemplo de configuraciones específicas que un administrador puede
necesitar configurar. Si el sistema viniera con un sistema operativo preinstalado, ciertas cosas como las
configuraciones del cargador de inicio Linux Loader (LILO) pueden no configurarse apropiadamente.
7.1
Preparación para la Instalación
7.1.2
Planificación del sistema
La instalación del NOS deberá prepararse cuidadosamente. Primero, haga un inventario del hardware
del sistema. No existe un NOS que funcione con todo el hardware de computadoras, de modo que
determine si el hardware actualmente disponible funcionará con el NOS. Segundo, determine si el NOS
soporta o no todo el software de aplicaciones que se cargará en el sistema. Tercero, familiarícese con
el NOS en sí mismo. Como parte del proceso, tendrán que tomarse importantes (y a veces
irreversibles) decisiones de configuración.
Cada fabricante de NOS establece lo que se denomina "requisitos mínimos del hardware" para su
software. Los requisitos mínimos de hardware en general se concentran en el tipo y velocidad de la
unidad central de procesamiento (CPU), cantidad de RAM, y la cantidad de espacio disponible en el
disco rígido. La siguiente sección proporciona una revisión de estos componentes clave.
Es relativamente fácil determinar si un sistema cumple o no los requisitos mínimos del NOS. También
determine si el NOS puede soportar los periféricos de hardware del sistema. Esto es especialmente
importante para periféricos caros o críticos para la misión, como equipo de video de alto rendimiento o
hardware de almacenamiento de alta capacidad.
Al planificar instalar un NOS, lleve a cabo un inventario de hardware completo. En entornos de
producción, deberá compilarse un inventario formal escrito. Una vez completado, verifique con los sitios
web de los fabricantes, personal de soporte, e incluso grupos de noticias para determinar si se soporta
el hardware del inventario. Puede ser necesario descargar e instalar controladores de software o
actualizaciones de firmware antes de que el hardware funcione apropiadamente con el NOS.
170
Haga un inventario de cualquier aplicación que se ejecutará en el mismo servidor. Si la organización se
apoya en software personalizado o software heredado, verifique con los fabricantes para asegurar la
compatibilidad. El software se considera software heredado si es antiguo y no puede actualizarse, pero
aún está en uso porque algunos componentes de la red necesitan los servicios que proporciona. La
mayor parte de los administradores eligen cargar y probar las aplicaciones en el NOS antes de
presentar un NOS a una red.
Finalmente, conozca los conceptos básicos acerca de un NOS en particular antes de instalarlo. Por
ejemplo, sepa cómo un NOS en particular maneja el particionamiento de unidades, el formateo de
disco, y las cuentas administrativas. El siguiente es un listado de verificación de planificación del
sistema:
·
·
·
Hacer un inventario del hardware del sistema y determinar la compatibilidad con el NOS.
Verificar que todas las aplicaciones de software deseadas están soportadas por el NOS.
Investigar el NOS y familiarizarse con el procedimiento de instalación antes de realmente
instalarlo.
Estos temas se tratan posteriormente en este capítulo.
7.1
Preparación para la Instalación
7.1.3
Planificación para la instalación del hardware
El primer paso que el especialista en hardware de servidores debería intentar es verificar que todo lo
especificado en el plano de instalación esté listo y disponible antes de comenzar la instalación. Las
actividades de verificación incluyen las siguientes:
·
·
·
·
Verificar que la ubicación donde el servidor ha de instalarse esté lista para la instalación.
Verificar que la salida de energía del servidor de la red esté disponible y activa. (Probar con un
voltímetro/medidor de ohms).
Verificar que la conexión a la red esté disponible y activa.
Verificar que todo el hardware para el servidor de red ha llegado y que el hardware esté según
lo especificado en el plano de instalación.
Verificación del Sitio de la Instalación
Después de leer y verificar el plano de instalación, el especialista en hardware de servidores deberá
visitar el sitio de la instalación y verificar que todo este listo en la locación. Una de las primeras cosas a
observar es la habitación en sí. Es necesario modificar las necesidades de la habitación para
asegurarse de que la vida del servidor no sea limitada. Las dos cosas que tienen el más grande
impacto en el servidor son temperatura y humedad. Disponibilidad de energía, espacio en el suelo,
supresión de inundaciones e incendios son otros elementos que necesitan observarse antes de
comenzar.
Verificación de la Fuente de Alimentación
El especialista en hardware del servidor deberá verificar que la energía necesaria para el servidor de la
red está realmente disponible y viva. Asegúrese de verificar que el voltaje para la fuente de
alimentación sea el correcto usando un voltímetro/medidor de ohms o multímetro digital. El voltaje
correcto para Norteamérica y Latinoamérica son 120 volts nominales. El voltaje correcto para Europa,
171
Medio Oriente y África son 230 volts nominales. La fuente de alimentación también debería estar en un
circuito de alimentación propio. También verifique que la fuente de alimentación tenga el amperaje
correcto y que el enchufe sea de la configuración correcta. Como la fuente de alimentación
ininterrumpida (UPS) es el componente que ha de enchufarse a la fuente de alimentación, esta
información puede hallarse en la documentación de la UPS. La UPS puede requerir un circuito de 20
amp o 30 amp, en lugar de uno más común de 15 amp. La UPS también puede tener un enchufe con
traba especial, que por supuesto requeriría un enchufe de pared especial.
Además de estas áreas clave, cree un inventario de periféricos y placas de expansión usadas con el
sistema, según se describe en la siguiente sección.
Verificación del Tamaño de la UPS
La UPS deberá ser del tamaño adecuado para mantener al servidor de la red en funcionamiento lo
suficiente como para llevar a cabo un apagado normal. Este periodo es usualmente de 5 a 10 minutos.
Una UPS de un tamaño inferior al necesario mantendrá al servidor en funcionamiento sólo un tiempo
muy breve. Una UPS de un tamaño superior al necesario no sólo mantendrá al servidor de red
operativo durante un periodo más largo durante un respaldo de energía sino que también permitirá el
crecimiento del servidor de red (agregando componentes al servidor de red a lo largo del tiempo). La
UPS deberá ser lo suficientemente grande como para soportar a todos los componentes del servidor de
red que están conectados a (enchufados a) la UPS. El tamaño de una UPS se especifica con un índice
volt-amp (VA). Cuanto mayor es el índice VA de la UPS, más tiempo la UPS puede mantener el
servidor de red en funcionamiento en caso de un fallo en la energía. Un índice VA más grande permite
agregar componentes de servidor de red adicionales.
Temperatura Adecuada en la Sala de Servidores
El sitio deberá tener capacidad de acondicionamiento de aire adecuada para manejar la adición del
servidor de red a instalar. El plano de instalación deberá enunciar la salida de calor de los dispositivos
que serán parte de la instalación de servidores de red (chásis, monitor, UPS, etcétera). Puede ser difícil
determinar la carga de calor actual (medida en Unidades Térmicas Británicas, BTUs) de la habitación
donde el servidor de red ha de ser instalado. Un indicador adecuado de la capacidad de enfriamiento
disponible en la sala donde se instalará el servidor de red es la temperatura de la sala. Si la
temperatura de la habitación es más de 72 grados Fahrenheit (alrededor de 22 grados centígrados) sin
que el nuevo servidor de red esté instalado, es dudoso que haya una refrigeración adecuada para el
nuevo servidor de red. Es por eso que es una buena idea tener una unidad de aire acondicionado
dedicada sólo para la sala de servidores.
La mayoría de los servidores usan ventiladores internos como refrigeración. Para que estos
ventiladores funcionen apropiadamente y proporcionen una refrigeración adecuada tiene que haber un
espacio despejado adecuado alrededor del servidor para un flujo de aire apropiado. De acuerdo a la
mayoría de las especificaciones, un área de tres pies (aproximadamente un metro) en el frente y detrás
del servidor proporcionará una refrigeración adecuada. La Figura ilustra un ejemplo de un servidor con
el espacio apropiado alrededor. Esto permitirá que un flujo de aire y temperatura apropiados pasen a
través del servidor.
Verificación de la Conexión de Red
Es necesario determinar el tipo y velocidad de la conexión correctos según las necesidades del
servidor antes de que el servidor realmente sea instalado. El usuario puede probar esto usando otro
sistema informático con el adaptador de red apropiado instalado para ver si la conexión de red que será
utilizada por el servidor de red es funcional y correcta.
172
7.1
Preparación para la Instalación
7.1.4
Componentes de hardware del servidor
Primero, el administrador de red necesita verificar los componentes que se utilizarán para ensamblar el
servidor de red. Algunos fabricantes de servidores de red no ensamblan todo el hardware para un
servidor de red cuando se lo encarga. El administrador de red debe poder tomar todos los componentes
y ensamblarlos para formar un servidor de red funcional.
Chásis del Servidor
Verifique que el chásis del servidor sea del modelo correcto que se encargó y del factor de forma
correcto. La mayoría de los chásis de servidor son de una configuración en torre, una configuración en
torre ancha o "gorda", o una configuración para montar en un rack. Asegúrese de que si se encargó un
modelo X de configuración en torre, que realmente el Modelo X en configuración en torre sea el
entregado, y no el Modelo X en configuración para montar en un rack. Las Figuras , , y
proporciona ejemplos de los diferentes estilos de servidores. Cuál es mejor dependerá de diversas
cosas e incluye cuánto espacio está disponible para el servidor.
173
Rack para el Servidor
Un chásis de servidor para montaje en rack debe montarse en un rack para equipo diseñado para
hardware montado en rack. La mayor parte de los fabricantes de servidores que venden servidores en
un chásis montable en rack también venden el rack para el servidor. Los racks para servidor vienen en
varios tamaños (alturas). El tamaño se mide en unidades de rack (U). Una unidad de rack estándar
mide 1,75 pulgadas. Un servidor de red nuevo estará instalado en un rack para servidor existente o se
adquirirá un rack para servidor nuevo para el nuevo servidor de red. Los racks para servidores en
general tienen puertas frontales y traseras y paneles laterales para formar una unidad completamente
cerrada. Las puertas y paneles laterales ayudan a formar un entorno seguro y también están diseñados
para ayudar a refrigerar el equipo del rack controlando los patrones de flujo de aire. En la mayoría de
los casos, varios racks para servidores pueden unirse para formar un espacio de instalación para una
gran cantidad de servidores. La Figura muestra un ejemplo de un rack para servidor sin puertas. La
Figura muestra un ejemplo de rack para servidor con puertas.
Una instalación de servidor montado en rack conserva espacio en la habitación donde residen los
servidores. Si se decidió seguir con una configuración montada en rack, en general, todo el equipo
debe estar diseñado para encajar en el rack para servidor. Esto incluye la UPS, el teclado/mouse, y el
monitor (LCD o CRT) para el servidor. La instalación del equipo en el rack de servidor deberá hacerse
según las especificaciones del fabricante del servidor. Varios fabricantes de servidores ofrecen software
para ayudar en la ubicación apropiada del equipo en el rack. Por ejemplo, todos los fabricantes de
servidores recomiendan que la UPS se instale en la parte inferior del rack. Esto se hace por varias
174
razones, incluyendo el peso de la UPS montada en rack y la necesidad de evitar el posible daño a un
servidor de red ocasionado por una batería de UPS con pérdidas.
Procesador(es)
Los servidores de red tienen por lo común más de un procesador. Verifique que la cantidad y tipo
correctos de procesadores estén disponibles para el servidor de red. Algunos fabricantes de servidores
instalan todos los procesadores que se encargaron. Otros fabricantes proporcionan el servidor con cero
o un procesador instalado, y el administrador de red debe instalar cualquier procesador adicional.
Verifique que los procesadores sean del mismo tipo, velocidad y stepping (versión). También verifique
que cada procesador tenga el mismo tamaño de caché L2. Siga las instrucciones del fabricante de red
para instalar procesadores adicionales.
Memoria
Los servidores de red en general requieren una cantidad considerable de memoria para que lleven a
cabo su función. Algunos fabricantes de servidores instalan toda la memoria que se encargó. No
obstante, otros fabricantes de servidores proporcionan el servidor con una cantidad estándar de
memoria, y el administrador de red debe instalar la memoria por encima de la cantidad estándar.
Verifique que el servidor tenga la cantidad de memoria que se encargó. Si parte de la memoria debe
instalarse, verifique que la memoria sea del tipo correcto para el servidor y siga las instrucciones del
fabricante de hardware del servidor para la instalación de la memoria adicional. Éste es un paso crítico.
Algunos servidores requieren que la memoria se instale en grupos de 2 ó 4 módulos de memoria.
(Verifique la documentación del fabricante del servidor para ver si los módulos de memoria deben
instalarse en grupos de 2 ó 4, en lugar de a uno). El instalar la memoria incorrectamente resultará en
que el servidor no reconocerá toda la memoria instalada o en que el servidor no arranque en absoluto.
Unidades de Disco
Muchas configuraciones de servidor de red requieren que una gran cantidad de almacenamiento en
disco esté disponible en el servidor. Verifique que las unidades de disco sean del tamaño, velocidad y
tipo (IDE/ATA, EIDE/ATA-2, SCSI, SCSI-2, SCSI-3) correctos. Las unidades de disco pueden venir
instaladas en el chásis del servidor o podrían venir en cajas acolchadas separadas para evitar daños. El
plano de instalación especificará qué unidades de disco (tamaño, velocidad y tipo) deberán instalarse
en el servidor de red.
Monitor, Teclado y Mouse
Verifique que el monitor para el servidor de la red sea según lo encargado. En general el monitor
deberá soportar una resolución VGA de al menos 1024 por 768 puntos por pulgada (dpi). EL monitor
puede ser del tipo tradicional CRT o uno de los más modernos monitores planos de LCD. Si el monitor
ha de montarse en el rack, será necesario adquirir un estante especial para el monitor. Están
disponibles monitores planos de LCD especiales montados en el rack. Éstos a menudo incluyen una
combinación de teclado/trackball o touch pad (sustituto para un mouse) en un único cajón de rack.
Fuente de Alimentación Ininterrumpida (UPS)
Verifique que una UPS esté disponible para el servidor de red. La UPS deberá ser de tamaño adecuado
para soportar el servidor de red durante un breve periodo, que permitirá apagar correctamente el
servidor. Las UPSs montadas en rack están disponibles para instalaciones de servidor de red montadas
en rack. Todas las UPSs deberán ser capaces de monitorearse por el servidor de red, a través de un
cable de comunicaciones USB o serial. Si la UPS ha de ser monitoreada mediante la conexión serial,
asegúrese de que una conexión serial esté disponible en el servidor de red. Mediante la adquisición de
hardware adicional para la UPS, el administrador de red puede usualmente monitorear una UPS a
través de la red. Las UPSs de calidad superior a menudo permiten al administrador de red
monitorearlas mediante una consola de administración SNMP o una interfaz web incorporada. Esto
permitirá al administrador de red rastrear la UPS desde cualquier conexión de Internet, una
característica adicional para un administrador.
Sistema de Respaldo
Verifique que el sistema de respaldo sea tal como fue especificado en el plano de instalación y que sea
adecuado para soportar el respaldo del servidor de red. El sistema de respaldo es en general una
175
unidad de cinta magnética de una u otra forma. La unidad de cinta deberá ser capaz de respaldar el
contenido de las unidades de disco del servidor de la red en el tiempo correcto. La capacidad de la
unidad de cinta y la velocidad a la cual los datos pueden transferirse a la unidad de cinta son ambos de
importancia crítica. Si el administrador de red determina que dadas las especificaciones de la unidad de
cinta, un respaldo completo del servidor de red tomaría 10 horas y el administrador de red sólo tiene 4
horas para llevar a cabo el respaldo, por ejemplo, la unidad de cinta es inadecuada para el trabajo. El
administrador de red también puede hacer respaldo de otros dispositivos, como unidades de disco
rígido, dispositivos CD-R y dispositivos CD-RW. Los dispositivos de respaldo deberán instalarse en un
controlador separado de las unidades de disco del servidor de red, para proporcionar un desempeño
pico durante el proceso de respaldo.
Cables SCSI
Verifique que se hayan entregado los cables correctos para conectar el controlador de canales SCSI a
los dispositivos SCSI (unidades de disco). Los cables SCSI difieren distintamente entre sí (por ejemplo,
SCSI-1, SCSI-2, y SCSI-3). Las versiones anchas de SCSI-2 y SCSI-3 utilizan diferentes cables. Los
cables SCSI internos son en general cables ribbon, con el pin 1 identificado por una franja (usualmente
roja) en el borde del cable. Los cables SCSI externos vienen generalmente en un atado redondo.
Verifique que los cables SCSI tengan la cantidad correcta de conectores para la configuración de
servidores de red. Asegúrese de que los cables SCSI no excedan los máximos de longitud del canal
SCSI. También asegúrese de que los cables SCSI tengan los suficientes conectores como para permitir
la conexión de todos los dispositivos SCSI. Si el administrador de red necesita conectar cuatro
unidades de disco SCSI a un canal SCSI, por ejemplo, el cable SCSI necesita al menos cuatro
conectores para las unidades de disco, más uno donde puede conectarse al adaptador SCSI.
Adaptador(es) SCSI
Verifique que el adaptador SCSI correcto esté disponible. Muchos servidores de red tienen uno o más
adaptadores SCSI incorporados. Adaptadores SCSI adicionales pueden requerirse para soportar la
cantidad de dispositivos SCSI que se utilizarán con el servidor de red. Asegúrese de que el adaptador
SCSI y los dispositivos SCSI sean del mismo tipo de SCSI (SCSI-1, SCSI-2, SCSI-3, etcétera).
Asegúrese de que la interfaz del adaptador SCSI coincida con el bus que se encuentra en el servidor de
red por ejemplo, EISA, PCI, o PCI-64.
Controlador(es) de Redundant Array of Inexpensive Disks (RAID)
Si el servidor de red va a usar la versión de hardware de RAID, verifique que el controlador de RAID
esté disponible. El controlador de RAID deberá entregarse con el software de configuración. El
controlador de RAID debe configurarse antes de poder instalar el sistema operativo de red. La mayoría
de los controladores de RAID están diseñados para soportar alguna versión de las unidades de disco
SCSI. Asegúrese de que el controlador RAID coincide con el bus que se encuentra en el servidor de la
red por ejemplo, EISA, PCI, o PCI-64.
Adaptador de Bus de Host de Canal de Fibra-Bucle Arbitrado
Si el servidor de red va a estar usando sistemas de disco de Canal de Fibra-Bucle Arbitrado (FC-AL),
verifique que el adaptador de bus de host (HBA) de Canal de Fibra haya sido entregado. El Canal de
Fibra puede usar cable de fibra óptica o alambre de cobre para el medio de conexión. Asegúrese de
que HBA tenga la conexión correcta (fibra óptica o cobre) y de que se incluyan los cables correctos. La
vasta mayoría de instalaciones FC-AL tienen el sistema de discos externos al chásis del servidor de
red.
Placa(s) de Interfaz de Red
Verifique la disponibilidad de la placa de interfaz de red (NIC) para el servidor de red. Algunos
servidores de red tienen la NIC incorporada al servidor de red. Si se requieren NICs redundantes para
el servidor de red, verifique que todas las NICs estén disponibles. Asegúrese de que la NIC soporta el
tipo de red donde el servidor de red va a instalarse (Ethernet, Token Ring, etcétera). También podrían
instalarse varias NICs en un único servidor de red si éste ha de conectarse a varias redes.
Hardware Misceláneo
Podría requerirse otro hardware para el servidor de red. El servidor de red sí requiere una adaptadora
176
de video para soportar el monitor del servidor de red. No hay razón para gastar mucho dinero en una
adaptadora de video lujosa que tenga una gran cantidad de memoria de video para soportar una
resolución de video extremadamente alta y billones de colores. El monitor de video en un servidor de
red se utiliza en general sólo para llevar a cabo funciones administrativas en el servidor de red. Un
adaptador de video que pueda soportar una resolución VGA de hasta 1024 por 768, y 65.536 colores
debería ser adecuado para la mayoría de los servidores de red.
Muchos fabricantes de hardware para vendedores tienen un adaptador de administración de servidor
especializado que puede adquirirse e instalarse en sus servidores de red. Estos dispositivos en general
monitorean la "salud" del hardware de servidores y pueden ser usados por un software de
administración de servidores ejecutándose en una computadora de administración designada. Algunos
de estos dispositivos tienen un módem incorporado, que permitirá el monitoreo del hardware de
servidores mediante una conexión telefónica de entrada.
Un servidor de red montado en rack podría incluir un switch teclado/video/mouse (KVM) para permitir el
uso de un teclado, una pantalla y un mouse de parte de varios servidores de red en un único rack. El
switch KVM permite al teclado, mouse y pantalla de video alternar (usualmente desde el teclado) entre
los servidores de red del rack. Esto ahorra espacio en el rack, porque cada servidor de red no requerirá
su propio teclado, mouse y monitor. Algún ahorro de costos también está asociado al hecho de
compartir el teclado, mouse y monitor, porque el administrador de red no tiene que comprarlos para
cada servidor.
Un servidor de red también debería tener algunos dispositivos encontrados comúnmente en la mayoría
de los sistemas de computadora de escritorio, como una disquetera de 3,5 pulgadas y una unidad de
CD-ROM o DVD-ROM. Estos dispositivos se requieren para instalar software del sistema operativo,
controladores del hardware, y otro software en el servidor de red.
7.1
Preparación para la Instalación
7.1.5
Requisitos de hardware
Las versiones más actuales de NOSs populares, como Windows XP y Red Hat 7, sólo pueden
ejecutarse en determinadas configuraciones de hardware. Las Figuras , , y bosquejan los
requisitos mínimos del sistema para los sistemas operativos Windows y Linux. Al elegir instalar una
versión de NOS, verifique que los elementos clave del hardware del sistema cumplan con los requisitos
mínimos del NOS. Estas áreas clave son el tipo de CPU (arquitectura), velocidad de la CPU (medida en
megahertz [MHz] o gigahertz [GHz]), cantidad de RAM, y cantidad de espacio en el disco rígido
disponible.
177
Los fabricantes de NOS publican estos requisitos mínimos para que los administradores puedan
planear sus sistemas. Algunos programas de instalación de NOS no se completarán si detectan un
sistema que no cumple con los requisitos mínimos de hardware.
Además de estas áreas clave, cree un un inventario de periféricos y placas de expansión usadas con el
sistema, tal como se describe en la siguiente sección.
Microsoft ha hecho disponible al público su herramienta Upgrade Advisor en su sitio web:
http://www.microsoft.com/windowsxp/ pro/howtobuy/upgrading/advisor.asp
Esta herramienta verifica el hardware y software del sistema para ver si está listo para una actualización
a Windows XP. La Figura proporciona un ejemplo de una función de Windows XP que
automáticamente verificará si el sistema tiene suficientes recursos para ser actualizado a Windows XP.
El CD-ROM de Windows XP también incluye esta utilidad.
178
7.1
Preparación para la Instalación
7.1.6
Creación de un inventario de hardware
El inventario de hardware deberá crearse antes de ejecutar cualquier programa de instalación o antes
de cualquier intento de preparar el disco duro para la instalación. De ser necesario, abra el gabinete del
sistema y examine las placas de expansión para determinar el fabricante y chipset que se están
usando. Si han venido manuales con el sistema, consúltelos también. Finalmente, si otro sistema
operativo ya está instalado en el sistema, use las utilidades del sistema, como el Administrador de
Dispositivos de Windows, para obtener información acerca del hardware instalado, lo que se muestra
en la Figura .
El inventario de hardware deberá incluir la siguiente información sobre cada dispositivo:
·
·
·
·
·
Tipo de dispositivo
Fabricante
Número de modelo
Versión del controlador del dispositivo
Número de revisión del BIOS
Un inventario de hardware también enumera todas las placas de expansión y dispositivos periféricos
conectados al sistema.
Algunas instalaciones pueden requerir más detalles acerca del software, como el slot donde está
ubicada una placa de expansión, o incluso las configuraciones de jumper de una placa en particular. La
mayor parte de esta información puede obtenerse usando una utilidad como el Administrador de
Dispositivos. Las Figuras , , y muestran las diferentes pantallas que se usan para ver las
propiedades, detalles extra, y recursos que el dispositivo está usando.
179
Las últimas versiones de la mayor parte del software y los NOSs usan diversos métodos para detectar y
configurar el hardware. No obstante, las placas de expansión y software más antiguos pueden no ser
compatibles con estos métodos de detección automáticos, como plug-and-play. En algunos casos, será
necesario inspeccionar físicamente la placa de expansión para registrar sus configuraciones de jumpers
y número de slot. La Figura presenta una muestra de un inventario de hardware.
7.1
Preparación para la Instalación
7.1.7
Identificación del hardware utilizando el Administrador de Dispositivos
Antes, los dispositivos estaban instalados sólo si el usuario instaló los controladores de dispositivo.
Hoy, el nuevo método es plug-and-play basado en PCI. Aún es fácil ver qué dispositivos no han tenido
controladores instalados. En el OS Windows 2000, el dispositivo aparecerá con un signo de
interrogación amarillo junto al nombre del dispositivo en el Administrador de Dispositivos. Un ejemplo
180
de esto se muestra en la Figura
.
Windows 2000
En Windows 2000, la forma más fácil de identificar si el controlador de hardware no ha sido instalado
es observar el dispositivo y ver si tiene un signo de interrogación en un círculo amarillo junto a él. Este
ícono significa que Windows 2000 reconoció el dispositivo pero no pudo encontrar un controlador
adecuado para él. En el Administrador de Dispositivos, el usuario tiene la opción de actualizar el
controlador. El usuario puede ordenarle a Windows 2000 que busque en el CD o en Internet el
controlador más apto. El usuario también puede borrar el controlador y reiniciar la PC y Windows pedirá
al usuario nuevamente que busque un controlador apropiado.
7.1
Preparación para la Instalación
7.1.8
Verificación de listas de compatibilidad de hardware
Una vez completo el inventario de hardware, verifique con los fabricantes del NOS y el hardware que
éste último es compatible con el NOS. Aunque los manuales de software y hardware pueden contener
información de compatibilidad, la fuente más actualizada de esta información es la World Wide Web. El
sitio web del fabricante de hardware proporciona la última información acerca de una placa de
expansión o periférico en particular. Estos sitios web en general incluyen controladores de software,
actualizaciones de firmware, y, si cabe, información sobre configuraciones de jumpers.
El sitio web de Red Hat ofrece una lista de compatibilidad de hardware, como lo muestra la Figura
La página de soporte de Microsoft puede usarse para hallar información de compatibilidad sobre
hardware específico de terceros.
.
181
La última lista de compatibilidad de hardware para los siguientes sistemas operativos de red puede
hallarse en los siguientes sitios web:
·
·
·
·
Microsoft Windows NT and Windows 2000 http://www.microsoft.com/whdc/ hcl/default.mspx
Linux (Red Hat) - http://www.redhat.com/ support/hardware/
Linux (SuSE) - http://cdb.suse.de/index.php?%20LANG=enUK&amp;PHPSESSID=
%2082afbdf72 c0c31537924627564e4c66c
Caldera OpenLinux - http://wdb1.caldera.com/ chwp/owa/hch_search_form
7.1
Preparación para la Instalación
7.1.9
Verificación de la red
La configuración de red consiste en seleccionar el protocolo de red y configurarlo para que opere
correctamente en la red. La mayoría de los servidores de red usan el protocolo TCP/IP o el protocolo
IPX/SPX o ambos.
Para configurar TCP/IP, el usuario necesita la siguiente información:
·
·
·
·
Dirección IP
Máscara de subred
Gateway por defecto
Dirección IP del o de los servidor(es) DNS
El usuario puede usar los siguientes comandos para ver o cambiar la configuración de la red para
diversos sistemas operativos:
·
·
Windows NT/Windows 2000 Server - ipconfig
UNIX/Linux - ifconfig
Verificación de la Conectividad de la Red
Para probar la conectividad de la red cuando se usa el protocolo TCP/IP, todos los sistemas operativos
de red usan el comando ping.
Un comando ping exitoso usando una dirección TCP/IP en un sistema Windows debería tener el aspecto
de la imagen mostrada en la Figura . Un ping exitoso en Linux se parecería a la imagen de la Figura
. Un comando ping no exitoso en Windows se muestra en la Figura y el comando ping sin éxito en
182
Linux se muestra en la Figura
.
La mejor dirección IP para hacer ping es la dirección IP del gateway por defecto, porque siempre debería
estar disponible para devolver la solicitud ping si el sistema está apropiadamente configurado para
acceder a la red o a Internet. Ésta es una técnica de resolución de problemas común que se usa cuando
un sistema no se está conectando a la red para determinar si el problema reside dentro del sistema en sí
o en otro lugar de la red.
7.2
El Proceso de Instalación
7.2.1
Medios de instalación
Una vez seleccionado el NOS que cumple con los requisitos de la red y el hardware, debe
determinarse el medio de instalación, como un CD-ROM, la red o diskettes. En general, un NOS se
instala usando un CD-ROM que contiene los archivos del sistema y un programa de instalación. En
algunos casos, un NOS se instala mediante diskettes. La instalación usando diskettes se ha venido
haciendo cada vez menos común a medida que los sistemas operativos han crecido en tamaño y las
unidades de CD-ROM se han vuelto estándar en virtualmente todos los modelos de PC.
Si se dispone de una conexión a Internet de alta velocidad, puede ser posible instalar una versión de
Windows, UNIX o Linux mediante una red. Con una conexión LAN, es posible instalar la mayoría de
183
NOSs usando la red local. La siguiente lista resume los métodos de instalación más comunes.
CD-ROMs Booteables
Si el sistema tiene una unidad de CD-ROM y puede bootearse desde el CD, puede llevarse a cabo una
instalación local por CD-ROM. Este método es relativamente rápido y es el más simple método de
instalación. Puede ser necesario descargar patches y otras actualizaciones del sitio web del fabricante
antes de colocar a la computadora en producción.
Booteo desde el Diskette y CD-ROM
Si el sistema tiene una unidad de CD-ROM pero no es posible bootear desde el CD, aún puede
realizarse una instalación local desde un CD-ROM después de bootear desde un diskette (o, en
algunos casos, un disco rígido). Al bootear desde un diskette, asegúrese de que los controladores de
software del CD-ROM estén cargados desde el disco booteable o desde alguna otra fuente. Sin los
controladores de software, no puede accederse al CD-ROM. Bootear desde un diskette y después
instalar desde un CD-ROM tiene las mismas ventajas y desventajas que bootear directamente desde el
CD, con la complicación agregada de la necesidad de crear el disco booteable primero. La mayoría de
los fabricantes de NOS proporcionan programas que crean los diskettes de instalación apropiados.
Solamente Diskette
Algunos NOSs más antiguos o muy pequeños pueden cargarse enteramente desde una serie de
diskettes. Una ventaja de este método es que no se requiere un CD-ROM. La obvia desventaja es que
copiar archivos desde varios diskettes es increíblemente lento.
Booteo desde Diskette/Disco Rígido/o CD e Instalación desde la Red
En este caso, el sistema se bootea mediante un diskette y el NOS se instala después desde un
servidor de red local. Este método también puede usarse al bootear desde una unidad de disco rígido o
un CD. Las instalaciones desde la red pueden ser rápidas y convenientes, pero requieren complejas
configuraciones y pruebas. Para que este método funcione, un administrador debe cargar una copia o
imagen del NOS en un servidor y configurar el servidor para permitir acceso a clientes. En general, las
instalaciones de red se basan en el Sistema de Archivos de Red (NFS) o el Protocolo de Transferencia
de Archivos (FTP). Unos pocos NOSs permiten la opción de bootear mediante un diskette (o incluso un
CD-ROM) e instalar la última versión del NOS a través de Internet. La ventaja de este método es que
se instala la última versión del NOS. Otra ventaja de menor importancia es que la instalación puede
llevarse a cabo incluso si el sistema no tiene una unidad de CD-ROM. No obstante, este método
requiere una conexión a Internet de relativamente alta velocidad. Además, instalar a través de Internet
es en general complejo y poco confiable.
184
7.2
El Proceso de Instalación
7.2.2
Configuración del BIOS
En particular con motherboards antiguos y sistemas operativos antiguos, las configuraciones del
Sistema Básico de Entrada/Salida (BIOS) juegan una parte importante en el proceso de instalación. El
BIOS del sistema en general reside en la ROM en el motherboard y es el primer programa ejecutado
cuando se enciende un sistema. Es responsable de probar los dispositivos de hardware usando un
proceso llamado Auto-Prueba de Encendido (POST). El BIOS también carga el sistema operativo
desde diversos medios, incluyendo discos rígidos, diskettes y usualmente CD-ROMs.
Al configurar sistemas más antiguos, la información acerca de cada unidad de disco conectada puede
tener que ser introducida manualmente en la utilidad de configuración del BIOS. En el caso de
hardware y sistemas operativos nuevos o con sólo algunos años de antigüedad, el BIOS del sistema es
capaz de detectar automáticamente las unidades de disco y otro hardware.
Para instalaciones basadas en CD de estos sistemas más nuevos, la única configuración del BIOS que
es importante es la que permite bootear desde el CD-ROM. La Figura muestra la utilidad de
configuración del BIOS de un BIOS Award. Para este BIOS, la opción "Boot Sequence" determina si el
sistema booteará o no primero desde un CD-ROM, el disco rígido o un diskette.
7.2
El Proceso de Instalación
7.2.3
El programa de instalación
Un programa de instalación controla y simplifica el proceso de instalación. Dependiendo del NOS, el
programa de instalación pide al usuario la información de configuración. La mayoría de los programas de
instalación permiten el particionamiento y formateo del disco rígido antes de copiar los archivos del
sistema. El particionamiento y el formateo se tratan en las siguientes secciones.
En Windows, el programa de instalación se llama setup.exe. En un sistema Red Hat Linux, el programa
de instalación se llama actualmente Anaconda. Estos programas guían al usuario a través del proceso de
instalación del NOS.
El programa de instalación hará una serie de preguntas. Las Figuras y proporcionan ejemplos de
cómo el programa de instalación de Red Hat 7.X pregunta qué idioma y disposición del teclado usar.
Estas preguntas son típicas de los programas de instalación.
185
Los programas de instalación también dan al usuario la opción de instalar un conjunto por defecto de
componentes o elegir cada componente de manera manual. La Figura muestra la pantalla de
instalación de Linux en la cual los usuarios elegirían si quisieran personalizar sus opciones de
instalación. Si se instala un NOS por primera vez, o si se instala un NOS en un servidor de no
producción, considere el uso de uno de estas opciones por defecto. Usar una configuración por defecto
simplifica el proceso de instalación y asegura que no se creará un sistema que funcione mal o no
funcione.
Si el servidor va a ser puesto en producción, considere seriamente una instalación personalizada. Elegir
manualmente los componentes y funciones garantizará que el sistema esté armado para las tareas
específicas requeridas en un entorno específico.
7.2
El Proceso de Instalación
7.2.4
Particiones del disco
Para usar eficientemente el espacio de almacenamiento de un disco rígido, el disco se divide en
secciones llamadas particiones. Cada partición es una división lógica del disco rígido. Un disco puede
tener una o más particiones. En general, un servidor de red se configura con varias particiones antes de
instalar el NOS. Un sistema con varias particiones de disco tiene las siguientes ventajas:
·
Varios sistemas operativos pueden instalarse en el mismo disco.
186
·
·
Los datos pueden separarse físicamente de los archivos de sistema para proporcionar
seguridad, administración de archivos, y/o tolerancia a fallos.
Puede crearse una partición específica, llamada partición de intercambio, para suplementar la
RAM del sistema y mejorar el desempeño.
Una vez que un disco se divide en particiones, cada partición debe formatearse para que los datos
puedan almacenarse ahí. En un sistema Windows, las particiones formateadas en un disco rígido se
etiquetan usando una letra del alfabeto. La primera partición se etiqueta con una C, la segunda
partición, si la hay, con una D, etcétera. Hay tres tipos de particiones que pueden existir en una unidad
de disco rígido. Una partición principal es lo mismo que una partición original. Las particiones extendidas
son variantes de una partición principal, que actúa como placeholder para las particiones lógicas. Las
particiones lógicas son particiones que se crean dentro de las particiones extendidas. En cualquier
sistema operativo, puede haber hasta cuatro particiones principales o tres particiones principales y una
partición extendida.
La disposición de las particiones se almacena en la tabla de particiones. La Figura proporciona una
representación lógica de cómo se dispone una tabla de particiones de muestra. A partir de este ejemplo,
las dos particiones lógicas (hda5 y hda6) están contenidas en la partición extendida hda2. La tabla de
particiones se ubica en el primer sector del disco rígido, donde está instalado el sistema operativo. Este
sector del disco rígido se denomina Master Boot Record (MBR). La Figura ilustra cómo el MBR
contiene información sobre todas las otras particiones que se crean. Esta sección también contiene
determinados parámetros y código, que la computadora necesita para funcionar una vez que se
inicializa el BIOS. Incluso aunque las particiones lógicas están almacenadas dentro de la partición
extendida, que está fuera del MBR, aún se las considera parte de la tabla de particiones porque definen
ubicaciones de particiones.
Requisitos para las Particiones Linux
Linux maneja los esquemas de particiones principal, extendida y lógica de manera un poco diferente a
otros sistemas operativos. Linux numera sus particiones principal y extendida de uno a cuatro y las
particiones lógicas son los números de cinco en adelante. Por ejemplo, si el usuario creara dos
particiones principales y una partición extendida, las particiones principales se numerarían uno y dos
respectivamente y la partición extendida se numeraría cuatro. La partición extendida se numeraría
cuatro y no tres porque los slots uno a tres están reservadas para particiones principales incluso aunque
no se usen todas. En el caso de arriba, se crearon solamente dos particiones principales, así que sólo
se omitió el slot tres. Por otro lado, las particiones lógicas siempre se numeran 5, 6, 7, etcétera,
independientemente de la cantidad. No obstante las particiones lógicas siempre comienzan en cinco.
Linux tiene una partición raíz, que es la partición en la cual se instaló el OS y desde donde se arranca.
La Figura muestra un ejemplo de los archivos raíz siendo instalados en la partición raíz. Como
187
mínimo, Linux necesita tener al menos una partición para que el sistema operativo sea instalado y
permitirle arrancar. La partición raíz también se identifica como /. Esto hace referencia a la partición raíz
porque toda la estructura de archivos se identifica por su ubicación en relación a /.
Opciones de Partición
Al particionar un disco en Linux así como en otros sistemas operativos, hay varias opciones disponibles
para que el administrador elija. Existen varias ventajas que vienen con el particionamiento de un disco
rígido además de tener una partición raíz gigante. La partición montada en /boot contiene el kernel del
sistema operativo, junto con los archivos usados durante el proceso bootstrap. Debido a las limitaciones
de la mayoría de los BIOS de las PC, crear una partición pequeña para guardar estos archivos es una
buena idea. Para la mayoría de los usuarios, una partición de 100 MB es suficiente.
Las particiones de intercambio se usan para soportar memoria virtual. En otras palabras, los datos se
escriben en una partición de intercambio cuando no hay la suficiente RAM para almacenar los datos que
su sistema está procesando. El tamaño de su partición de intercambio debería ser igual a dos veces la
RAM de su computadora, o 32 MB; la cantidad más grande.
Particionamiento de Volúmenes RAID
La idea básica detrás de RAID es combinar varias unidades de disco pequeñas y de bajo costo en un
conjunto para lograr objetivos de buen rendimiento o redundancia que no se pueden lograr con una
única unidad grande y de alto costo. Este conjunto de unidades parecerán a la computadora una única
unidad de almacenamiento lógica.
RAID es un método en el cual la información se esparce a lo largo de diversos discos, usando técnicas
tales como disk striping (RAID Nivel 0), disk mirroring (RAID Nivel 1), y disk striping con paridad (RAID
Nivel 5) para lograr redundancia, más baja latencia y/o un incremento en el ancho de banda para leer o
escribir en discos, y maximizar la capacidad para recuperarse de cuelgues en el disco rígido.
Los dispositivos RAID no pueden particionarse, como sí pueden los discos comunes, tienen que
montarse como volúmenes usando LVM (Administración del Volumen Lógico). Un punto de montaje es
la locación dentro de la jerarquía de directorios en la cual existe un volumen RAID; el volumen se
"monta" en esta locación. Este campo indica dónde se montará la partición. Si existe una partición
RAID, pero no está configurada, será necesario definir el punto de montaje para el volumen RAID.
Varios Discos
Al instalar varios discos, el usuario debe crear por defecto más de una partición. El usuario debe crear al
menos una partición para cada disco que se instala. La ventaja de hacer esto es que la partición puede
instalarse en un único disco mientras que otro directorio, como el directorio /home puede instalarse en el
188
otro disco. Colocar los discos del directorio /home contendría todos los datos de los usuarios que se
guardan en su directorio home y esos datos se guardarían en caso de que el directorio raíz falle.
Mejores Opciones de Seguridad
Particionar una unidad de disco duro puede mejorar también la seguridad en la unidad. El acceso
seguro para una partición puede ser mayor o menos que el acceso seguro para otra. Por ejemplo, si el
directorio /home estuviera ubicado en su propia partición, el administrador podría tener una seguridad
más estricta para el acceso a esa partición que contiene los directorios home de los usuarios.
Protección contra Multiplicación de los Datos
Cualquier persona que use cualquier sistema operativo ha aprendido que suceden errores o ataques. A
veces uno de estos errores pueden hacer que un archivo crezca continuamente a tamaños enormes
tomando así todo el espacio de una partición y haciendo que el sistema de archivos colapse porque ya
no puede crear archivos o directorios en esa partición. Particionar un disco rígido puede ayudar a
reducir la cantidad de daño efectuado y a veces permitir al administrador detectar el problema antes de
que pueda ocasionar demasiado daño. Esto se logra porque se reduce la cantidad de espacio en el
disco rígido que este proceso puede consumir.
Protección contra Errores en el Disco
Particionar un disco también puede ayudar en el caso de que un sector de la unidad de disco rígido se
estropea o de que un virus corrompa una porción del disco rígido. El usuario sólo perderá los datos en
esa unidad de disco rígido que no hayan sido almacenados como respaldo en otro lado. Si el usuario no
había particionado la unidad de disco rígido todos los datos de la unidad entera podrían perderse.
Sistemas de Archivo Ideales
Particionar un disco puede ser útil en el caso de que el usuario necesite usar varios sistemas de archivo.
El usaurio puede tener un único sistema de archivos en el cual el sistema operativo se instala y luego el
usuario puede tener otro sistema de archivos en otra partición que ciertos archivos o programas podrían
necesitar operar.
Dependiendo del OS, el particionamiento se hace antes de ejecutar el programa de instalación o desde
el programa de instalación mismo. El particionamiento puede hacerse manualmente o automáticamente.
Muchos programas de instalación permiten un particionamiento automático. Aunque esta opción es de
ayuda para los administradores novicios, el particionamiento automático puede no resultar en un
sistema optimizado para necesidades específicas.
Para particionar manualmente un disco con eficacia, es importante comprender qué tipos de particiones
son requeridas por el NOS. Cómo se usará el servidor también dicta cómo se lo particiona. Por ejemplo,
si se configura un servidor Linux para ser un servidor de correo, asegúrese de que la partición apropiada
sea lo suficientemente grande como para contener el correo no leído de cada usuario.
7.2
El Proceso de Instalación
7.2.5
Particionamiento de un disco
La información acerca de la cantidad de particiones, su tamaño y su ubicación en el disco se guarda en
el primer sector del disco. Esta información se denomina tabla de partición. Las tablas de partición
pueden conformarse a uno de varios formatos, incluyendo DOS y BSD/Sun.
En sistemas que usan una tabla de partición tipo DOS, como Windows y Linux, el primer sector del
disco se llama a veces Master Boot Record (MBR) o Master Boot Sector. Las tablas de partición tipo
DOS pueden describir hasta cuatro particiones principales. En BSD y Sun UNIX, el primer sector de la
unidad de disco rígido se llama etiqueta de disco, o Tabla de Contenidos del Volumen (VTOC). La tabla
de partición tipo Sun puede describir hasta ocho particiones principales. La Figura 1 proporciona un
ejemplo de una tabla de partición de muestra de hasta ocho particiones.
189
La tabla de partición incluye información que le indica al OS qué particiones son booteables. Una
partición booteable es una partición que contiene un sistema operativo. Al definir manualmente las
particiones, debe configurarse una configuración para que sea booteable para poder bootear desde
ella. El MBR o etiqueta de disco contiene un programa que ubica el primer sector de un sistema
operativo booteable y luego entrega el control del sistema nuevamente al OS.
Si el MBR o la etiqueta de disco se corrompe o pierde de algún modo, el sistema ya no booteará
apropiadamente. Por esta razón, deberá guardarse una copia del MBR/etiqueta de disco como
respaldo en un diskette.
Herramientas de Particionamiento
Antes de que un sistema operativo pueda instalarse en un disco rígido éste debe particionarse
apropiadamente. Existen varias herramientas disponibles que permitirán al usuario particionar una
unidad de disco rígido. No obstante, hay sólo unas pocas que deberán usarse si el usuario está
instalando Linux en la unidad de disco rígido.
FDISK
La mayor parte del software de instalación de NOS incluye un programa llamado FDISK. FDISK
significa fixed disk. Los programas FDISK están diseñados para manipular la tabla de partición de un
disco rígido. Un programa FDISK puede usarse para crear particiones, borrar particiones, y configurar
particiones como "activas". La Figura muestra las opciones que están disponibles para
administración de disco usando la herramienta fdisk en un sistema Linux (usando el switch -l).
190
Microsoft proporciona una versión del programa FDISK lista para usar. El programa proporciona un
medio basado en texto de crear particiones en una unidad de disco rígido que Linux puede usar.
Linux proporciona también una versión de FDISK, aunque la versión que Linux usa es fdisk, con todas
letras minúsculas. La versión Linux de fdisk también es basada en texto pero proporciona un medio
más flexible de particionar un disco duro que la versión de Microsoft.
Herramientas en Tiempo de Instalación de Linux
Linux proporciona sus propias herramientas que pueden usarse al instalar un sistema sólo Linux. Éstas
son herramientas GUI que son mucho más fáciles de usar que fdisk. Ésta es probablemente la forma
mejor y más fácil de particionar un sistema Linux.
Herramientas de Particionamiento de Terceros
Existen algunas herramientas de terceros que pueden usarse para particionar un sistema Linux. La
herramienta mejor conocida para ello es PowerQuest PartitionMagic (http://www.powerquest.com/).
PartitionMagic es una herramienta basada en GUI que puede usarse para particionar una unidad de
disco rígido formateada con una variedad de sistemas de archivos incluyendo FAT, NTFS, HPFS, ext2,
y ext3. PartitionMagic se basa en DOS pero viene con un diskette que puede usarse en un sistema
operativo que no sea Windows. Proporciona un excelente medio de particionar un disco que tiene más
de un tipo de sistema operativo o sistema de archivos en él. PartitionMagic es también de ayuda para
hacer otras cosas también. Puede usarse para cambiar el tamaño de una partición sin dañar los
archivos dentro de la partición existente.
FIPS
First Nondestructive Interactive Partitioning Splitting (FIPS) se incluye en el CD de instalación que viene
en la mayor parte de las distribuciones Linux. FIPS es una gran herramienta de particionamineto que
puede usarse para dividir una partición FAT en dos particiones. FIPS se usa más comúnmente en
sistemas Windows que necesitan hacer una partición separada para instalar Linux en ella. FIPS lo hace
dividiendo en primer lugar la partición FAT existente. Luego el usuario puede borrar esa partición e
instalar Linux en esa nueva partición. La Figura proporciona un ejemplo de una herramienta de
particionamiento FIPS.
191
Directrices Generales para el Particionamiento
Existen algunas reglas generales que es importante conocer al particionar una unidad de disco rígido.
Seguir estas reglas ahorrará muchísimo tiempo en detectar y resolver problemas o reparar un sistema
de archivos sobre la marcha. En general, cualquier OS puede instalarse en cualquier partición que es
creada por cualquier herramienta de particionamiento, mientras esa herramienta use la tabla de
partición estándar x86. No obstante, esto no siempre funciona. Hay dos reglas que en general deberán
seguirse al particionar una unidad de disco rígido.
Una buena idea es usar una herramienta de particionamiento trans-plataforma como PartitionMagic.
Como se describió antes, esta herramienta de particionamiento puede usarse para particionar una
unidad de disco rígido para su uso con prácticamente cualquier sistema operativo.
Si usar una herramienta de particionamiento de terceros no es una opción entonces la segunda mejor
idea es usar la herramienta de particionamiento que viene con el OS. Linux y Windows 2000/XP vienen
con sus propias herramientas de particionamiento que pueden usarse durante la instalación del OS.
7.2
El Proceso de Instalación
7.2.6
Archivos de intercambio
Un archivo de intercambio es un área del disco rígido que se usa para la memoria virtual. La memoria
virtual es espacio en el disco rígido que se usa como suplemento de la RAM. Refiérase a la Figura
para un ejemplo de las Configuraciones de Memoria Virtual de Windows. Los datos se escriben en el
archivo de intercambio (también llamado archivo de paginación) cuando no hay la suficiente RAM
disponible. Luego los datos se intercambian entre la RAM y el archivo de intercambio, según sea
necesario. Si el sistema tiene la suficiente RAM, el archivo de intercambio puede ser pequeño y usado
infrecuentemente. Si el uso de la RAM se incrementa, el archivo de intercambio puede agrandarse y los
intercambios pueden ocurrir más frecuentemente. Esto permite a los programas ser ejecutados, algo
que el sistema no podría soportar de otro modo.
192
Aunque Windows usa un archivo de intercambio, éste no tiene que configurarse. El archivo de
intercambio se crea como archivo en la partición NOS.
Los sistemas UNIX en general dedican una partición entera al espacio de intercambio. Esta partición se
denomina la partición de intercambio. El tamaño mínimo de la partición de intercambio deberá ser igual
a dos veces la RAM de la computadora, o 32 MB, lo que sea más grande, pero no más de 128 MB en
un sistema Red Hat Linux. Es importante no obstante, administrar el uso del espacio de intercambio
porque si el sistema comienza a quedarse sin espacio de intercambio el OS puede comenzar a sufrir
las consecuencias.
Configuración del/de los Archivo(s) de Intercambio
Los sistemas operativos de red que usan memoria virtual (Windows NT, Windows 2000, UNIX, y Linux)
tienen un archivo de intercambio en la unidad de disco del servidor de red. Para un desempeño óptimo,
el archivo de intercambio deberá instalarse en o mudarse a una unidad de disco física diferente a la
unidad de disco que contiene los archivos del sistema operativo, o archivos de aplicación a los que se
accede frecuentemente (como bases de datos). Las siguientes secciones identifican los nombres de los
archivos de intercambio y los tamaños por defecto de diversos sistemas operativos de red.
Windows 2000 Server
Las configuraciones por defecto de Microsoft Windows 2000 Server incluyen las siguientes:
·
·
·
Nombre del archivo de intercambio: C:\PAGEFILE.SYS
Tamaño por defecto: 1,5 veces la cantidad de RAM en el servidor
Se permite un único archivo de intercambio por volumen
Para cambiar la cantidad de archivos page o cambiar el tamaño de un archivo page, seleccione Inicio
> Configuración > Panel de Control > Sistema > Avanzado > Opciones de Desempeño> Cambiar
Memoria Virtual.
Linux
Usar el comando free en Linux permitirá al usuario verificar la memoria del sistema. La Figura
proporciona un ejemplo de la salida de este comando. Este comando mostrará el uso de la memoria
total. Hay varias opciones que pueden emitirse junto con este comando para manipular la salida del
comando. Éstas se muestran en la Figura .
193
Usar este comando puede ser muy útil al determinar el desempeño general de un sistema y también
cuando podría ser necesario agregar RAM. Evaluando las columnas de total, usada y libre, First
Nondestructive Interactive Partitioning Splitting puede ver cuánta RAM tiene el sistema, cuánta está
siendo usada, y cuánta está siendo usada actualmente. Si la columna de usada comienza a acercarse
al mismo valor que la columna de total, podría ser una buena idea agregar más RAM.
La última fila de esta salida muestra el espacio y uso del archivo de intercambio. Los mismos principios
se aplican para evaluar si agregar o no más espacio de intercambio que para agregar más RAM. La
única diferencia es que es difícil obtener una estimación del uso del archivo de intercambio sólo
observando esta salida unos segundos. Es necesario hacer una mejor evaluación durante un periodo
cuando el sistema esté siendo usado regularmente. Una manera de hacer esto es capturar la salida y
guardarla en un archivo de texto que pueda leerse y evaluarse después. Para ello el usuario usaría la
opción - que se trató antes junto con el comando > que redirigiría la salida a un archivo de texto. El
comando para hacerlo aparecería como:
free - 900 > swapeval.txt
Esto haría que la salida se mostrara durante 900 segundos y luego la salida del uso del archivo de
intercambio durante un periodo de 900 segundos se dirigiría a un archivo que podría leerse después.
Agregado de un Archivo de Intercambio
Una forma de agregar espacio de intercambio es agregar un archivo de intercambio. La forma de
agregar un archivo de intercambio a un sistema Linux es la siguiente:
1. El primer paso que es necesario tomar es crear un archivo que tome el espacio equivalente al
tamaño del archivo de intercambio que se va a crear. Para ello, el usuario necesitará usar el
comando dd. La salida es la siguiente:
# dd if=/dev/zero of=swap.swp bs=1024 count=131072
Este comando enuncia que los bytes se copiarán de /dev/zero y luego se creará un archivo
swap.swp que tiene un tamaño de 128 MB.
2. A continuación, el archivo swap.swp que se creó necesitará inicializarse para que el sistema
Linux pueda usarlo para intercambiar memoria al disco. Usando el comando mkswap el
usuario puede habilitar Linux para que pueda usar el nuevo archivo de intercambio pero no
estará activo. La salida de este comando es la siguiente:
194
# mkswap /swap.swp
3. Para activar este archivo de intercambio el usuario necesitará usar el comando swapon. Para
desactivar este archivo de intercambio simplemente use el comando swapoff en lugar del
comando swapon. La salida es la siguiente:
# swapon /swap.swp
Este archivo de intercambio que acaba de crearse no se usará la próxima vez que se reinicie el sistema
a menos que se coloque una entrada en /etc/fstab (ver Figura ). El usuario necesitará enumerar en
este archivo la ruta completa donde está ubicado el archivo de intercambio.
Agregar espacio de intercambio usando este método es definitivamente la forma más rápida y
fácil. No obstante, tiene algunas desventajas. Al crear este archivo de intercambio en una
partición que ya está siendo usada, el archivo puede fragmentarse a medida que la partición se
va usando. Esto hará que el archivo de intercambio se fragmente a través de la partición
también, lo cual degrada el rendimiento. La única otra opción que hay es crear una partición de
intercambio enteramente nueva. No obstante, esto es mucho más complejo y no se recomienda
a menos que sea absolutamente necesario.
7.2
El Proceso de Instalación
7.2.7
Formateo del disco
Una vez creadas las particiones, será necesario formatearlas. En general, el programa de instalación
presentará las opciones de formato disponibles. Las particiones pueden formatearse con diversas
utilidades, como FORMAT.EXE en Windows.
El proceso de formateo define el sistema de archivos de la partición. La Figura muestra la GUI para
seleccionar particiones en Red Hat. Dentro de cada partición, el sistema operativo mantiene un registro
de todos los archivos almacenados ahí. Cada archivo es realmente almacenado en el disco rígido en
uno o más clusters o espacios de disco de un tamaño uniforme predefinido.
195
Al formatear una partición en un NOS Windows, elija entre los siguientes sistemas de archivos:
·
·
·
New Technology File System (NTFS) (Recomendado para servidores de red)
FAT32
FAT
Linux permite la creación de diferentes tipos de partición, basándose en el sistema de archivos que
utilizarán. La siguiente es una breve descripción de los diferentes sistemas de archivos disponibles, y
de cómo pueden utilizarse.
·
·
·
·
·
·
ext2 - Un sistema de archivos ext2 soporta tipos de archivos Unix estándar (archivos regulares,
directorios, vínculos simbólicos, etc.). Proporciona la capacidad de asignar nombres de archivo
largos, de hasta 255 caracteres. Versiones anteriores a Red Hat Linux 7.2 usaban sistemas de
archivo ext2 por defecto.
ext3 - El sistema de archivos ext3 se basa en el sistema de archivos ext2. Su principal ventaja
sobre ext2 son sus capacidades de journaling. Usar un sistema de archivos con journaling
reduce el tiempo usado en recuperar un sistema de archivos después de un cuelgue, ya que no
hay necesidad de escanear y verificar el sistema de archivos. El sistema ext3 se selecciona por
defecto y es altamente recomendado.
volumen físico (LVM) - Crear una o más particiones de volumen físico (LVM) permite la
creación de un volumen lógico LVM.
software RAID - Crear dos o más particiones RAID de software permite la creación de un
dispositivo RAID. Para más información respecto a RAID, vea las siguientes secciones.
intercambio - Las particiones de intercambio se usan para soportar la memoria virtual. En
otras palabras, se escriben dats en una partición de intercambio cuando no hay RAM suficiente
para almacenar los datos que está procesando su sistema.
vfat - El sistema de archivos VFAT es un sistema de archivos Linux compatible con los
nombres de archivos largos de Microsoft Windows en el sistema de archivos FAT.
Otro sistema de archivos notable es HFS (Sistema de Archvos H), que se usa con OS/2.
7.2
El Proceso de Instalación
7.2.8
Creación de cuentas administrativas iniciales
Una de las partes más importantes de cualquier instalación de NOS es la creación de la cuenta del
usuario administrativo. Como se trató en capítulos anteriores, un NOS es un sistema multiusuario. La
cuenta administrativa tiene acceso irrestricto para crear y borrar usuarios y archivos. La Figura
muestra las capacidades de un administrador en Windows XP. Por esta razón, la cuenta administrativa
se llama "cuenta de súper usuario" en algunos sistemas. La Figura presenta una lista parcial de los
196
nombres otorgados a la cuenta del usuario administrativo por NOSs comunes.
Al instalar el NOS, el programa de instalación pedirá al usuario que cree una cuenta administrativa.
Puesto que esta cuenta es muy poderosa, es crítico que se asigne una contraseña "fuerte". Una
contraseña se considera fuerte cuando contiene ocho caracteres o más y no usa nombres reconocibles
o palabras del diccionario. Las contraseñas fuertes también usan una combinación de letras
mayúsculas y minúsculas, números, y otros caracteres.
7.2
El Proceso de Instalación
7.2.9
Completando la instalación
Después de proporcionar al programa de instalación la información necesaria, el programa creará los
archivos del sistema NOS en el disco rígido. Otras aplicaciones y componentes básicos también se
copiarán al disco rígido, según lo determine el programa de instalación. Dependiendo del tamaño del
NOS, la cantidad de componentes seleccionados, y la velocidad del servidor, puede llevar desde pocos
minutos a más de una hora completar el proceso de copiado.
Una vez completo el proceso de copiado, el programa de instalación puede hacer algunas preguntas
de configuración finales antes de reiniciar el sistema. Una vez reiniciado el sistema, el administrador
deberá poder iniciar sesión en el recientemente instalado NOS usando la cuenta administrativa creada
durante el proceso de instalación.
197
7.3
El Proceso de Arranque
7.3.1
Los pasos del proceso de arranque
El proceso de arranque del sistema operativo Windows 2000 es muy diferente al de Windows 9x. El
proceso de arranque de Windows 9x es mucho más simple y directo. Tanto Windows 9x como
Windows 2000 tienen archivos completamente diferentes que se usan para iniciar los sistemas
operativos. Aunque Windows 9x tiene unos pocos archivos que cargan los programas de inicio y
verifican controladores de dispositivos, el proceso de arranque de Windows 2000 involucra mucho más
y requiere el uso de muchos más archivos. Windows 2000 requiere unos pocos pasos y archivos extra
a causa de las funciones adicionales que ofrece, como las funciones de seguridad y de inicio de sesión.
Además, muchas de las características que se soportan en Windows 98, como controladores de
dispositivo específicos, no son soportadas por el sistema operativo Windows NT/2000.
Windows 2000 atraviesa una serie de pasos al arrancar la computadora. Si todo funciona, al usuario no
le importarán mucho los detalles del proceso. No obstante, al resolver problemas de arranque, sirve
comprender cómo funciona el proceso de arranque. Como se muestra en la Figura , el proceso de
arranque de Windows 2000 tiene lugar en cinco etapas:
·
·
·
·
·
La pre-secuencia de arranque
La secuencia de arranque
La carga del kernel
La inicialización del kernel
El proceso de inicio de sesión
198
Aprender acerca del proceso de arranque y los archivos que se usan en las etapas de este proceso
ayudarán a resolver eficazmente problemas del sistema operativo.
NOTA:
Esta sección trata el proceso de arranque en lo que se refiere al sistema operativo Windows 2000.
Tenga en cuenta que mientras que aquí se trata el proceso de arranque de Windows 2000, los mismos
pasos tienen lugar en Linux aunque los nombres de archivo serán diferentes. El proceso de arranque
de Linux se tratará posteriormente en el capítulo.
7.3
El Proceso de Arranque
7.3.2
Archivos básicos requeridos
Antes de observar los detalles del proceso de arranque, puede ser una buena idea observar los
archivos que se requieren para completar un arranque exitoso y ver dónde deben ubicarse estos
archivos. La Figura enumera algunos de los archivos más importantes que un sistema Windows
2000 necesita para arrancar apropiadamente.
Es importante notar que este capítulo se refiere al proceso de arranque basado en Intel. El proceso de
arranque será levemente diferente en sistemas no basados en Intel porque NTLDR no es necesario. En
estos sistemas, hay un archivo llamado OSLOADER.EXE que lleva a cabo esta función. El archivo
199
NTDETECT.COM no es necesario tampoco en sistemas no basados en Intel, porque esa función se
lleva a cabo durante la POST, y la información reunida por la POST se da a NTOSKRNL.EXE a través
de OSLOADER.EXE. Desde ese punto, los sistemas basados y no en Intel arrancan de la misma
manera.
7.3
El Proceso de Arranque
7.3.3
Interacción con el BIOS
El proceso de arranque no puede funcionar sin el BIOS porque el BIOS controla todos los aspectos del
proceso de arranque. Las instrucciones y los datos en el chip ROM que controlan el proceso de
arranque y el hardware de la computadora se denominan Sistema Básico de Entrada/Salida (BIOS).
Durante el proceso de arranque, el BIOS lleva a cabo una serie de interacciones con el hardware del
sistema. Éstas incluyen verificar el hardware necesario para asegurarse de que esté presente y sea
operativo. Esto ocurre durante la Auto-Prueba de Encendido (POST). Durante la POST, una
computadora probará su memoria y verificará que tenga todo el hardware necesario, como un teclado y
un mouse. Esta información es usada por el BIOS para controlar todos los aspectos del proceso de
arranque. Cuando surge un problema durante la POST, el BIOS produce códigos de error de audio y
video. El BIOS proporciona a la computadora las instrucciones básicas para controlar los dispositivos
en el sistema durante el proceso de arranque. El BIOS también localiza cualquier código BIOS en
placas de expansión y lo ejecuta durante el proceso de arranque. Finalmente, el BIOS localiza un
volumen o sector de arranque en las unidades para arrancar el sistema operativo. La Figura
proporciona un ejemplo de la pantalla que aparece durante el proceso de arranque cuando la POST se
ha completado y se ha verificado que todo el hardware necesario está presente.
7.3
El Proceso de Arranque
7.3.4
Pasos detallados del proceso de arranque
Paso 1: Pre-Secuencia de Arranque
Una vez encendida la máquina, el primer paso del proceso de arranque es la POST. Esto es realmente
algo que hará la computadora, independientemente de su sistema operativo. Una vez que la
computadora completa la POST, permitirá que otras placas adaptadoras ejecuten sus propias POSTs,
como una placa SCSI que está equipada con su propio BIOS, por ejemplo. Una vez que la rutina de la
POST se ha completado, la computadora localizará un dispositivo booteable y cargará el Registro de
Arranque Maestro o Master Boot Record (MBR) en la memoria, el cual a su vez localiza la partición
activa y la carga en la memoria. El MBR permite al sistema operativo cargarse en la RAM. Hasta este
punto, el hardware de la computadora ha jugado un rol importante, y sin hardware que funcione
apropiadamente, el sistema operativo no se cargará. En este punto la computadora carga e inicializa el
archivo NTLDR, que es el cargador del sistema operativo, y comienza a cargar el sistema operativo. La
Figura muestra una captura de pantalla de la pre-secuencia de arranque.
200
Paso 2: Secuencia de Arranque
Una vez que la computadora carga el NTLDR, la secuencia de arranque comienza a reunir información
acerca del hardware y los controladores. NTLDR usa los archivos NTDETECT.COM, BOOT.INI, y
BOOTSECT.DOS. El archivo BOOTSECT.DOS sólo se utilizará en el caso de que la computadora esté
configurada para un arranque dual. Una función importante proporcionada por NTLDR se pasar el
procesador a modo de memoria plana de 32 bits. Hasta este punto, la computadora se estaba
ejecutando en modo real, como las antiguas CPUs 8086/8088. A continuación, NTLDR arranca el
sistema de archivos, FAT o NTFS, para que pueda leer los archivos del disco. NTLDR ahora leerá el
archivo BOOT.INI para habilitar la visualización del menú de arranque en la pantalla. Aquí es donde el
usuario podrá seleccionar qué sistema operativo cargar si la computadora está configurada para
arranque dual. Si se selecciona un sistema operativo que no es Windows 2000, NTLDR carga entonces
el archivo BOOTSECT.DOS y le pasa el control, para que luego arranque el otro OS. La Figura
muestra un ejemplo de un menú de arranque. Si se selecciona Windows 2000 o si la computadora no
tiene arranque dual, entonces NTLDR ejecuta NTDETECT.COM, que reunirá información acerca del
hardware de la computadora. Es también en este paso que puede presionarse F8 para resolver
problemas y para opciones de inicio avanzadas. NTDETECT.COM detectará los siguientes
componentes de hardware:
·
·
·
·
·
·
·
·
·
·
ID de la computadora
Tipo de bus/adaptador
Teclado
Puertos com
Puertos paralelos
Diskettes
Adaptadores SCSI
Mouse/dispositivos de señalamiento
Coprocesador de punto flotante
Adaptadores de video - Una vez que NTDETECT.COM ha recogido la información sobre el
hardware, NTLDR cargará NTOSKRNL.EXE y le pasará esa información.
201
Paso 3: Carga del Kernel
La fase de carga del kernel comienza con la carga de NTOSKRNL.EXE junto con el archivo. En este
punto NTLDR aún juega un papel en el proceso de arranque. NTLDR también leerá la clave de registro
del sistema de la memoria, y seleccionará la configuración de hardware que está almacenada en el
registro. Cargará la configuración necesaria para que la computadora arranque. En este punto del
proceso de arranque, es posible seleccionar qué perfil de hardware ha de cargarse, si hay más de un
perfil de los cuales elegir, como muestra la Figura . A continuación, cualquier controlador de
dispositivo que tenga un valor de inicio de 0x0 será cargado desde el registro por NTLDR. Después de
este paso todos los archivos del kernel tienen que cargarse en la memoria.
Paso 4: Inicialización del Kernel
La fase inicial de carga del kernel ya está completa y el kernel comenzará a inicializarse. Esto
simplemente significa que está reconociendo todo lo que se cargó previamente de modo tal que
NTLDR puede ahora otorgar control al kernel del sistema operativo. El sistema operativo puede ahora
comenzar las etapas finales de carga. La interfaz gráfica del usuario (GUI) ahora puede verse y
mostrará una barra de estado indicando que la GUI se está cargando. Cuatro pasos adicionales
tendrán lugar ahora:
Se crea la clave del hardware.
Una vez que el kernel ha completado el proceso de inicialización, usa la información recolectada
202
durante la fase de detección del hardware para crear la clave del registro HKEY_LOCAL_MACHINE\
HARDWARE. Este registro contiene toda la información acerca del hardware que está ubicado en el
motherboard de la computadora así como las interrupciones usadas por los dispositivos de hardware.
Se crea el control de clones.
El kernel hace referencia a la subclave del registro HKEY_LOCAL_MACHINE\ SYSTEM\Select y luego
crea un clon (o copia) del valor del registro Configuración de Control Actual. La computadora usa
entonces este clon para mantener una copia idéntica de los datos usados para configurar la
computadora de modo tal que este valor del registro no reflejará los cambios efectuados durante el
proceso de inicio.
Los controladores de dispositivos se cargan e inicializan.
Durante este paso, el kernel inicializa primero los controladores de dispositivos de bajo nivel que se
cargaron en la fase de carga del kernel del proceso de arranque. Ahora el kernel debe escanear la
subclave del registro HKEY_LOCAL_MACHINE\ SYSTEM\CurrentControlSet\Services para
controladores de dispositivos con un valor de 0x1. Este valor de controlador de dispositivo indica en
qué punto del proceso se cargará el controlador. Esto es lo mismo para el valor del controlador de
dispositivo en la fase de carga del kernel.
Se inician los servicios.
El paso final que es necesario completar es el inicio del Administrador de Sesión. El Administrador de
Sesión se inicia cuando se carga el archivo SMSS.EXE. El Administrador de Sesión es responsable de
cargar los programas en su Entrada del Registro BootExecute. El Administrador de Sesión también
carga los subsistemas requeridos, que dan inicio al archivo Winlogon.exe. Este archivo inicia el archivo
de Administración de Seguridad Local (LSASS.EXE), y aparece la ventana de Ctrl + Alt + Delete, como
lo muestra la Figura . El Controlador de Servicios (SCREG.EXE) verificará el registro en busca de
servicios con un valor de inicio de 0x2 y los cargará. Servicios con valores de inicio de 0x3 se inician
manualmente, y servicios con valores de inicio de 0x4 están inhabilitados.
Paso 5: Inicio de Sesión
La pantalla de inicio de sesión, como la muestra la Figura , da comienzo al paso final en el proceso
de arranque. Aunque se trata del paso final, un arranque no se considera completo o exitoso hasta que
el usuario no inicia sesión. Una vez que el usuario ha iniciado sesión, el clon del valor de Configuración
de Control Actual del cuarto ítem, en el Paso 4, se copia al Último Bueno Conocido valor de
configuración de control en el registro. Ésta es una medida de seguridad que lleva a cabo el OS para
que un usuario pueda reiniciar la computadora si surge un problema donde el proceso de arranque se
corrompe. Un ejemplo sería si un controlador de dispositivo defectuoso se carga y no permite que el
usuario inicie sesión. Seleccionar este valor durante el inicio carga la última configuración de arranque
203
exitosa que se guardó sin este controlador de dispositivo defectuoso, permitiendo que el usuario inicie
sesión.
7.3
El Proceso de Arranque
7.3.5
Proceso de arranque de Linux
Antes de que Red Hat Linux pueda iniciarse en su sistema, debe indicársele que arranque mediante
instrucciones especiales colocadas en un boot loader, código que existe en su unidad de disco rígido
principal u otro dispositivo de medio que sepa cómo iniciar el kernel Linux. El proceso de arranque
entre Windows 2000 y Linux es muy similar. Obviamente una diferencia principal son los tipos de
archivo que se usan. Los nombres de los tipos de archivo que se usan para iniciar los dos sistemas
pueden ser diferentes, pero esencialmente llevan a cabo las mismas funciones. Por ejemplo, Windows
2000 usa el archivo NTLDR como archivo principal que arranca el sistema hasta que el sistema
operativo asume el control del proceso. En Linux el archivo LILO lleva a cabo esta función. La Figura
proporciona un ejemplo de la pantalla de LILO, que se usa para arrancar el sistema operativo. Esta
pantalla es también donde un usuario decidiría qué sistema operativo desea el usuario que LILO
comience a arrancar si el arranque es dual. Ambos sistemas inician el proceso de arranque localizando
el registro de control maestro y cargándolo. A continuación, en Windows 2000, los archivos del kernel
(NTDETECT, NTOSKRNL, y HAL) son cargados por NTLDR. En Linux tiene lugar el mismo proceso,
usando el Kernel Linux. En este punto en ambos sistemas, los archivos raíz se están cargando para
preparar al sistema operativo para que asuma el control. El siguiente paso del proceso de arranque de
Windows es cargar los servicios, lo cual es efectuado por el archivo SMSS.EXE. En Linux este proceso
lo hace INIT. En este punto los procesos de arranque toman rutas separados al empezar Linux a cargar
su sistema operativo y Windows a cargar el suyo. Al final, ambos sistemas llegarán a un prompt de
inicio de sesión que pedirá un nombre de usuario y contraseña para autenticarse ante el sistema.
204
LILO
Arrancar Linux requiere que se instale un programa para cargar el kernel a su computadora. La
mayoría de las distribuciones Linux de hoy usan el cargador de arranque LILO o GRUB. El archivo de
configuración principal de LILO se llama lilo.conf. Editar lilo.conf es fácil. Asegúrese de que ha
iniciado sesión como raíz, y cargue el archivo en un editor de texto, asegurándose de guardar sus
cambios. Editará lilo.conf por una cantidad de razones:
·
·
·
·
Está probando un nuevo kernel y desea poder arrancar la misma partición Linux con más de un
kernel.
Desea agregar protección por contraseña a una partición.
Tiene una configuración de hardware que requiere que especifique opciones especiales, como
arrancar un sistema de archivos remoto.
Su kernel es llama de otra manera que /vmlinuz o se encuentra en un lugar no estándar, como
/etc.
GRUB
El otro cargador de arranque principal usado en Linux es GRUB. GNU GRUB (GRand Unified
Bootloader) es un programa que instala un cargador de arranque en el MBR, que existe en los
sectoresde inicio de un disco. Permite aplicar instrucciones específicas en el MBR que carga un menú
o entorno de comandos GRUB, permitiéndole iniciar el sistema operativo de su elección, pasar
instrucciones especiales a kernels cuando arrancan, o descubrir parámetros del sistema (como RAM
disponible) antes de arrancar.
GRUB es muy simple de instalar. Si durante el proceso de instalación de Linux no se instaló GRUB,
puede instalarse y hacerlo el cargador de arranque por defecto. Tenga en cuenta que si ya está usando
LILO como cargador de inicio, no tiene que eliminarlo para poder usar GRUB. Una vez instalado,
GRUB será el cargador de arranque por defecto de su sistema. Siga los pasos a continuación para
instalar y configurar el cargador de arranque GRUB.
1. Primero, asegúrese de que tiene el último paquete GRUB disponible. También puede usar el
paquete GRUB de los CD-ROMs de instalación de Linux.
2. A continuación, ejecute el comando /sbin/grub-install <ubicación> desde el prompt del shell,
donde <ubicación> es la ubicación donde GRUB deberá ser instalado, como /dev/hda1. (La
partición que contiene el MBR).
3. Al reiniciar su sistema, verá el cargador de arranque GRUB.
205
7.4
Resolución de Problemas de la Instalación del NOS
7.4.1
Incapacidad de arrancar desde el medio de instalación
Si el sistema no arranca desde el medio de instalación (como un CD o diskette), entonces el programa
de instalación no podrá ejecutarse. Hay varios pasos a dar si el sistema no arranca desde un CD-ROM:
·
·
·
·
·
·
·
Consulte el menú de configuración del BIOS del sistema como muestra la Figura . En general
se requiere una combinación de teclas para entrar al monitor del BIOS. La secuencia de teclas
varía de fabricante a fabricante. El BIOS es software incorporado que contiene todo el código
requerido para controlar los dispositivos de hardware del sistema. Éstos pueden incluir el
teclado, el monitor, las unidades de disco rígido, los puertos paralelo y serial, y una cantidad de
otras funciones. El BIOS de la PC en las computadoras de hoy está estandarizado, así que
dejando de lado diferencias de los fabricantes, todos funcionarán de manera bastante similar.
Asegúrese de que el BIOS sea capaz de soportar y arrancar desde un CD-ROM, y de que esté
configurada la secuencia de arranque correcta en el BIOS. Si el BIOS del sistema no puede
soportar o arrancar desde un CD-ROM, el sistema tendrá que arrancarse usando un diskette
booteable.
Consulte la documentación que vino con el CD. Asegúrese de que el CD contenga archivos del
sistema y esté diseñado para ser booteable. Algunos CDs contienen los archivos de
instalación, pero no son booteables. De ser éste el caso, intente arrancar desde un diskette.
Verifique que el CD sea reconocido por el sistema operativo y que estén disponibles
controladores de dispositivos apropiados.
Verifique para ver si otro sistema puede arrancar desde el CD o leer el CD. Si otro sistema no
puede leer el disco, entonces el problema está muy probablemente relacionado con el disco en
sí. Si otro sistema puede hacerlo, entonces el problema es muy probablemente una unidad de
CD defectuosa.
Inspeccione el lado de los datos en busca de rayones, huellas digitales o polvo, si se sospecha
que el problema es el disco en sí. Limpie el CD usando un paño de algodón seco y limpiando
suavemente del centro del disco hasta el borde. Repita este proceso hasta que toda la
superficie del CD parezca limpia. Vuelva a poner el CD en la unidad e intente arrancar otra vez.
Si el arranque falla, obtenga otra copia del disco de instalación.
Determine si el problema está en la unidad de CD-ROM. Hágalo desconectando la energía,
abriendo el gabinete e inspeccionando la conexión de cables entre la unidad de CD-ROM y el
motherboard. Asegúrese de que el cable esté enchufado firmemente en ambos extremos.
Después de verificar el cable, verifique la configuración del CD-ROM tal como master/esclavo,
selección de cables, ID SCSI, o terminación SCSI, dependiendo del tipo de unidad. Si el CDROM aún falla, reemplace la unidad o el cable. Si el arranque todavía falla, consulte la
documentación del hardware antes de proceder.
206
7.4
Resolución de Problemas de la Instalación del NOS
7.4.2
Problemas durante el proceso de instalación
En ocasiones, algo sale mal durante el proceso de instalación. Si se toma una decisión incorrecta
mientras se usa el programa de instalación, busque un botón o tecla "atrás" para que la configuración
pueda invertirse. He aquí algunos otros problemas comunes.
El particionamiento o formateo del disco rígido falla.
Verifique la configuración del BIOS y la documentación del disco rígido para resolver este problema. El
disco rígido puede estar defectuoso. Verificar la página del BIOS que contiene la información acerca de
las unidades de disco rígido instaladas en el sistema permitirá hacer una prueba para ver si el sistema
está reconociendo al disco.
El sistema "se cuelga" durante el proceso de instalación.
Un cuelgue es definido como un periodo de varios minutos durante el cual no hay actividad discernible
en el sistema. Esto significa que la pantalla de instalación parece congelada o negra, y el LED de
actividad en la unidad de disco rígido no está parpadeando. Espere al menos cinco minutos bajo estas
condiciones antes de declarar un cuelgue. Si el sistema se cuelga, apague y vuelva a encender la
máquina. Después de volver a encender la máquina, el programa de instalación puede dar la opción de
reanudar o reparar la instalación previa. Si no lo hace, entonces inicie nuevamente el proceso de
instalación. Si vuelve a ocurrir el cuelgue en el mismo punto durante el proceso de instalación, lo más
probable es que sea un problema de compatibilidad del hardware. Verifique el inventario de hardware
contra la lista de compatibilidad del fabricante.
El medio de instalación no puede leerse en algún punto durante el proceso de instalación.
Este problema tiene lugar al instalar con un CD que está sucio o rayado. En algunos casos se trata de
un "mal quemado", vale decir un CD-RW que ha tenido los archivos de instalación copiados en él
incorrectamente. Si la limpieza del CD no corrige este problema, obtenga otra copia de los archivos de
instalación.
7.4
Resolución de Problemas de la Instalación del NOS
7.4.3
Problemas post-instalación
Una vez instalado el NOS, el sistema puede no cargar el NOS apropiadamente o no permitir un inicio
de sesión. Si el sistema falla al cargar el NOS, consulte con el sitio web y la documentación del
fabricante. Los fallos de la primera carga son difíciles de resolver. Será necesario reunir información
muy específica acerca del sistema y el NOS. Si el sistema informa errores específicos, escríbalos y
busque información sobre ellos en la web o en la documentación. De ser necesario, llame a una línea
207
de soporte técnico y pida ayuda.
Si no puede iniciar sesión, el problema es usualmente información sobre la cuenta del administrador
olvidada que fue configurada durante el proceso de instalación. Recuerde que, en muchos sistemas,
los nombres de usuario y contraseñas son sensibles al uso de mayúsculas y minúsculas, así que
asegúrese que Bloq Mayús del teclado no esté encendido. La Figura ilustra una muestra de mensaje
de error que un usuario recibiría al dejar la tecla Bloq Mayús encendida durante el proceso de inicio de
sesión.
Resumen
Este capítulo trató cómo planificar, instalar y solucionar problemas en la instalación de un NOS.
Algunos de los conceptos importantes a retener de este capítulo son los siguientes:
·
·
·
·
·
·
·
El proceso de planificación incluye la reunión de información acerca de los requisitos
mínimos del sistema y problemas de compatibilidad de hardware conocidos. En algunos
casos, puede usarse un programa de utilidades que pueda verificar si el sistema
funcionará con el NOS.
El inventario de hardware debería incluir el tipo de dispositivo, fabricante, número de
modelo, e información de versión de controlador de dispositivos para cada dispositivo.
Los dos tipos de particiones son principal y extendida. Cada sistema requiere al menos
una partición principal. La primera partición principal siempre se etiqueta con una C en
un sistema Windows. Sólo puede haber una única partición extendida en un sistema,
pero una partición extendida puede subdividirse en varias particiones lógicas. Las
particiones lógicas que componen una partición extendida se denominan volúmenes, o
unidades lógicas.
El proceso de formateo define al sistema de archivos de la partición. Al formatear una
partición en un NOS Windows, elija entre el Sistema de Archivos de Nueva Tecnología
(NTFS), FAT32, y FAT. NTFS se recomienda para servidores de red. Al formatear una
partición UNIX o Linux, elija entre el Sistema de Archivos UNIX (UFS) y EXT3.
El proceso de arranque de Windows 2000 es similar a Linux. Sus cinco etapas son
secuencia previa al arranque, secuencia de arranque, carga del kernel, inicialización del
kernel, y proceso de inicio de sesión.
Ocasionalmente, hay problemas en la instalación. Cuando esto ocurre, invierta el
proceso para asegurarse de que todos los pasos se siguieron correctamente. Reúna
toda la información acerca del sistema y busque una resolución en la web o en la
documentación. De ser necesario, llame a una línea de soporte técnico y pida ayuda.
El siguiente capítulo detalla el sistema operativo Windows 2000. El alumno
aprenderá los pasos para completar la instalación a través del inicio de sesión
208
administrativo.
8. Windows 2000 Professional
Descripción general
Este capítulo detalla el sistema operativo Windows 2000. Hay cuatro pasos para la instalación.
Una vez que se verifica que el sistema es compatible, Windows 2000 guía al administrador al
paso final de iniciar sesión. El capítulo también trata la administración de cuentas de usuario y
sistemas de archivo para proporcionar al administrador la información necesaria para compartir
carpetas, archivos y asignar permisos. El alumno también aprenderá acerca de los servicios de
Windows 2000 que se configuran para proporcionar acceso a la web, e-mail y otras
computadoras.
8.1
Instalación
8.1.1
Instalación de Windows 2000
Hay unas pocas cosas a considerar antes de instalar Windows 2000. Primero, verifique para
asegurarse que el hardware es capaz de ejecutar Windows 2000. Microsoft recomienda que los
usuarios observen los siguientes requisitos antes de instalar el sistema operativo:
·
·
·
·
·
·
Microprocesador Pentium 133 MHz o superior
64 MB de RAM
Unidad de disco rígido de 2 GB o partición con un mínimo de 1 GB de espacio libre
Monitor VGA
CD-ROM de 12X, mínimo
Placa de red
Microsoft tiene una herramienta llamada Lista de Compatibilidad de Hardware (HCL) que puede usarse
para verificar que el hardware realmente funcionará con Windows 2000. Microsoft proporciona
controladores probados solamente para aquellos dispositivos incluidos en esta lista. Usar hardware que
no está en la lista HCL podría ocasionar problemas durante y después de la instalación. Esta HCL
puede verse abriendo el archivo Hcl.txt en la carpeta Soporte del CD-ROM de Windows 2000
Professional, o visitando http://www.microsoft.com/hwdq/hcl/. La Figura muestra un ejemplo del
archivo de texto HCL que puede verse en cualquier sistema Windows 2000.
Comprensión de los Pasos de la Instalación de Windows 2000
Existen cuatro pasos principales en el proceso de instalación de Windows 2000. La instalación
comienza cuando se ejecuta el programa Setup. Esto prepara el disco rígido y copia archivos. Setup
luego ejecuta un asistente que proporciona páginas informativas, que se usan para completar el resto
209
de la instalación. Hay cuatro pasos en el proceso de instalación de Windows 2000:
·
·
·
·
El programa Setup
El asistente Setup
Instalación del networking de Windows
Completar el programa Setup
El Programa Setup
El primer paso del proceso de instalación es preparar el disco rígido para las otras etapas de
instalación. Los archivos necesarios para ejecutar el asistente de setup se copian y se muestra la
porción de texto de setup. La instalación de Windows 2000 puede iniciarse usando los Discos de
Arranque de Setup o arrancando desde el CD-ROM.
Si se eligen los Discos de Arranque de Setup, inserte el primer disco en la computadora y enciéndala.
Siga los pasos para insertar los otros discos para comenzar a copiar los archivos.
Usar el CD-ROM Windows 2000 Professional puede ser mucho más fácil. Después de arrancar desde
el CD-ROM, una versión mínima de Windows 2000 se copia a la memoria, que se usa para iniciar el
programa Setup.
Aquí es donde comienza la porción basada en texto de Setup. El administrador hará lo siguiente:
·
·
·
·
Leer y aceptar el acuerdo de licencia
Reconfigurar las particiones del disco rígido o borrar una partición de ser necesario
Crear and formatear una nueva partición para instalar Windows 2000 o reformatear una
partición existente
Seleccionar FAT o NTFS como tipo de sistema de archivos
Setup formateará entonces la partición con el sistema de archivos seleccionada. El tipo de sistema de
archivos seleccionado puede ser FAT o NTFS. La Figura muestra las opciones disponibles durante
el proceso de instalación. Recuerde que FAT puede convertirse a NTFS pero NTFS no puede
convertirse a FAT sin reinstalar el OS. Ésta es una de las características de seguridad que proporciona
NTFS. Al instalar el OS en una red, NTFS se prefiere a causa de la seguridad del sistema de archivos
para el usuario y el administrador del sistema. Una vez que la partición ha sido formateada, el
programa Setup comenzará a copiar los archivos necesarios al disco rígido y a guardar la información
de configuración. Setup reiniciará automáticamente la computadora e iniciará el asistente de Setup de
Windows 2000. Por defecto, los archivos del sistema operativo Windows 2000 se instalan en la carpeta
C:\Winnt.
210
El Asistente Setup
El Asistente Setup comienza la porción de Interfaz Gráfica del Usuario (GUI) del proceso de instalación
y guía al administrador a través de la siguiente etapa del proceso de instalación. La Figura muestra
un ejemplo de la pantalla de Setup GUI de Windows 2000. Reúne información acerca del
administrador, la organización y la computadora. Este paso instala las funciones de seguridad y
configura los dispositivos del sistema. Se guiará luego al administrador a través de una serie de
pantallas de instalación en las cuales el asistente Setup de Windows 2000 pide alguna información:
·
·
·
·
·
·
·
Configuración regional Windows 2000 fue diseñado para ser un sistema operativo global.
Aquí debe introducirse la información concebida para personalizar las configuraciones de
idioma, ubicación y teclado. Windows 2000 puede configurarse para usar varios lenguajes y
configuraciones regionales.
Nombre y organización Introduzca el nombre de la persona que va a ser el usuario de la
computadora y la organización a la cual esta copia de Windows 2000 Professional es
licenciada.
Clave del producto Microsoft envía cada copia de Windows 2000 con una Clave de Producto
de 25 caracteres usualmente ubicada en la parte trasera de la caja del CD.
Nombre de la computadora Al conectar la computadora a una red, cada computadora de la
red necesitará un nombre único para poder ser identificada en la red. Debe introducirse un
nombre de computadora. No puede ser más largo que 15 caracteres. El asistente Setup de
Windows 2000 mostrará un nombre por defecto, usando el nombre de la organización que se
introdujo anteriormente en el proceso de instalación, pero se recomienda cambiarlo.
Contraseña para la cuenta de Administrador Windows 2000 tiene la capacidad de tener
muchos perfiles diferentes para los usuarios de la computadora. También hay una cuenta de
administrador incorporada que incluye privilegios para hacer cualquier cambio en la
computadora. En este punto el administrador debe proporcionar la contraseña para la cuenta
de administrador. Esta contraseña puede ser cambiada después, pero sólo por el usuario que
tiene los privilegios administrativos locales del sistema.
Información sobre marcado del módem Puesto que las redes modernas usan LANs y placas
de red, esta opción dependerá primero de si se está o no usando un módem. La mayoría de las
laptops todavía los usan, de modo que podría ser necesario introducir información aquí.
Primero seleccione el país o región donde está ubicada la computadora. A menudo esto ya
está completado, basándose en la configuración regional seleccionada. El área (o ciudad) de la
ubicación de la computadora también debe introducirse así como el número para obtener línea
externa. Finalmente, seleccione si el sistema telefónico es de marcado por tonos o de marcado
por pulsos.
Configuraciones de fecha y hora Deben especificarse la fecha y hora correctas así como la
zona horaria. Si Windows 2000 ajusta automáticamente la configuración del reloj para cambios
211
por horario de verano también puede seleccionarse.
Instalación del Networking de Windows 2000
Puesto que Windows 2000 fue diseñado para ser un Sistema Operativo de Red (NOS), instalar la
configuración de red es un paso importante del proceso de instalación. Después de reunir información
acerca de la computadora, el programa Setup de Windows 2000 instala automáticamente el software
de la red. La Figura muestra la pantalla de configuración de la red que se usa para configurar el
sistema para acceder a la red durante el proceso de instalación. Windows 2000 Professional instala los
componentes de networking en una serie de pasos:
·
·
Detectar las placas adaptadoras de red El sistema operativo necesita primero detectar las
placas de red. Si no hay placas instaladas, este paso se salteará.
Instalar los componentes de networking Hay archivos necesarios que deben instalarse para
permitir a la computadora conectarse a otras computadoras, redes, e Internet.
El programa Setup pide al administrador que elija si usar la configuración típica o una configuración
personalizada para configurar los siguientes componentes de networking. Si se elige típica, el sistema
instalará la configuración por defecto. Eligiendo la opción personalizada, el administrador puede
introducir la información que es específica de la red de la compañía. Por ejemplo, Cliente para Redes
212
de Microsoft le permite a la computadora obtener acceso a los recursos de la red. Archivos e
Impresoras Compartidos para Redes Microsoft permite que otras computadoras obtengan acceso a
recursos de archivos e impresión en la computadora así como permitir a la computadora local obtener
acceso a archivos e impresoras compartidos en la red. TCP/IP es el protocolo de networking por
defecto que permite a una computadora comunicarse a través de Redes de Área Local (LANs) y Redes
de Área Amplia (WANs). En esta etapa, otros clientes, servicios, y protocolos de red pueden instalarse
si la red los requiere. Éstos pueden incluir Interfaz del Usuario Mejorada NetBIOS (NetBEUI),
AppleTalk, y NWLink IPX/SPX/transporte compatible con NetBIOS.
·
·
Unirse a un grupo de trabajo o dominio El administrador necesita decidir si la computadora
será o no parte de un dominio o grupo de trabajo. Es información deberá conocerse antes de
este paso. Si la cuenta de una computadora se crea en el dominio para la computadora
durante la instalación, el asistente Setup Windows 2000 pide al administrador el nombre y la
contraseña para unirse al dominio.
Instalar componentes El último paso es instalar y configurar los componentes de networking
que acaban de seleccionarse.
Completar el Programa Setup
Una vez que los componentes de networking han sido instalados, el asistente Setup copia archivos
adicionales para configurar Windows 2000 Professional. El programa Setup iniciará automáticamente el
cuarto paso del proceso de instalación. Hay cuatro pasos básicos en la etapa final del proceso de
instalación, que se muestra en la Figura :
1. Instalar los elementos del menú Inicio Aquí es donde se instalan todos los elementos de
acceso directo que aparecen en el menú inicio.
2. Componentes del registro Windows 2000 comienza a aplicar la configuración que se
especificó en el asistente Setup de Windows 2000.
3. Guardar la configuración Una vez aplicada la configuración, es necesario guardarla en el
registro para poder usarla cada vez que se inicia la computadora.
4. Eliminar los archivos temporales Mientras se instala el sistema operativo, es necesario
copiar muchos archivos para ejecutar estos pasos de instalacion. Después de la instalación, los
archivos ya no se usan. El asistente de instalación borrará automáticamente estos archivos.
Una vez que este paso está completo la computadora se reiniciará automáticamente y el
administrador puede iniciar sesión para finalizar el procedimiento de instalación.
Opciones de Instalación de Windows 2000
Los pasos de instalación que se mencionan en la sección anterior son los procedimientos típicos o por
213
defecto. Hay otras tres opciones de instalación que pueden seleccionarse al instalar Windows 2000:
·
·
·
Una instalación Típica es el tipo básico de instalación que se presentó en la sección anterior.
Una instalación Portátil instalará las opciones que podrían ser necesarias con una
computadora portátil, como una laptop.
Una instalación Compacta deberá usarse al instalar Windows 2000 en una computadora con
una cantidad limitada de espacio en el disco rígido.
Deberá elegirse una instalación personalizada si son necesarias selecciones personalizadas para las
configuraciones de dispositivos. Por ejemplo, si no son plug-and-play
8.1
Instalación
8.1.2
Instalación de opciones adicionales del OS
Una vez que se instaló exitosamente el sistema operativo Windows 2000, el usuario puede necesitar
algunas funciones que se consideran opciones adicionales. Por ejemplo, los Servicios de Información
de Internet (IIS) deberán instalarse si el usuario configurará un FTP o servidor web. La mayor parte de
estos adicionales pueden instalarse desde el CD de instalación desde el cual se instaló inicialmente el
sistema operativo. Al iniciar estos servicios, se pedirá al usuario insertar el CD para que los archivos
necesarios puedan copiarse a la unidad de disco rígido. El proceso está automatizado, y todo lo que el
usuario tendrá necesidad de hacer es insertar el CD.
Otros adicionales post-instalación incluyen los paquetes de servicios o actualizaciones al sistema
operativo que han sido hechos desde que el CD de instalación fue adquirido. Éstos pueden
descargarse e instalarse desde el sitio web del fabricante en cualquier momento. Actualizaciones e
instalaciones de paquete de servicios se instalan usualmente inmediatamente después de la instalación
del sistema operativo para evitar que ocurran errores después. La Figura proporciona un ejemplo de
la pantalla Agregar o Quitar Componentes de Windows.
8.2
Interfaz Administrador/Usuario
8.2.1
Procedimientos de inicio de sesión
El primer paso en el uso de cualquier Sistema Operativo de Red (NOS) es iniciar sesión en el sistema.
Windows 2000 implementa una Interfaz Gráfica del Usuario (GUI) y permite a un usuario iniciar sesión
en el sistema usando la ventana Iniciar Sesión en Windows, que se muestra en la Figura . Después
de arrancar la computadora por primera vez a Windows 2000, puede pedirse a los usuarios que
presionen las teclas Ctrl, Alt, y Supr simultáneamente para mostrar esta ventana. El nombre de usuario
y contraseña requeridos pueden introducirse en esta pantalla, así como información más detallada, tal
como el dominio de red asignado al usuario. Por razones de seguridad, los caracteres de la contraseña
se enmascaran con asteriscos (*) a medida que se los tipea. Note que sólo la contraseña es sensible al
214
uso de mayúsculas o minúsculas y deberá introducirse exactamente como se creó. Si la contraseña se
introduce incorrectamente, el sistema pedirá al usuario que reintroduzca la información de cuenta hasta
que sea correcta.
8.2
Interfaz Administrador/Usuario
8.2.2
Interfaz gráfica del usuario (GUI) de Windows
En este punto el usuario ya debería estar familiarizado con la navegación básica a través de la Interfaz
Gráfica del Usuario (GUI), por ejemplo, cómo operar un mouse. A partir de aquí, el usuario está listo
para explorar el NOS Windows 2000 señalando y haciendo clic con el mouse en los diversos elementos
de la interfaz. Windows 2000 tiene varios elementos básicos.
Íconos
Los íconos son el aspecto más básico de Windows 2000. Los íconos son pequeñas imágenes con
nombres de texto que se usan para representar una mayor funcionalidad. La Figura muestra algunos
íconos comunes de Windows 2000. Haciendo doble clic en un ícono, el usuario invoca la funcionalidad
representada por dicho ícono. Por ejemplo, hacer doble clic en el ícono Mi PC abre una ventana de
sistema, mientras que hacer doble clic en el ícono Internet Explorer ejecuta el programa Microsoft
Internet Explorer. Otros íconos pueden representar archivos o documentos almacenados en la
computadora, y hacer doble clic sobre ellos tanto ejecutará el programa apropiado como mostrará el
contenido del archivo. En este caso, hacer doble clic en el ícono para British History.doc lanzará
Microsoft Word así como abrirá el documento dentro del programa.
Botones
Los botones de Windows 2000 son muy similares a los íconos con unas pocas diferencias importantes.
Primero, los botones vienen en una más amplia variedad de formas y tamaños que los íconos estándar.
Pueden tener sólo texto, sólo imágenes, o tanto texto como imágenes. Usualmente están diseñados en
la interfaz de una aplicación como control para que el usuario lleve a cabo una tarea específica. Por
ejemplo, los botones pueden usarse para confirmar una opción con un botón Aceptar o para guardar
un documento con un botón Guardar
215
Ventanas
En la mayor parte de los sistemas GUI populares, los usuarios interactúan con el sistema a través de
pantallas conocidas como ventanas. La Figura muestra una ventana que está mostrando el
contenido del directorio C:\WINNT. La importancia de este concepto (concebido primero por Xerox y
usado por Apple a principios de los '80) se ve reflejado en el nombre dado a la línea de sistemas
operativos de Microsoft. Una ventana funciona de manera muy similar a sus contrapartes en el mundo
real como portal para ver otras áreas. En el caso de las GUIs, las ventanas proporcionan al usuario
acceso a los datos y funcionalidad programada del sistema operativo y sus aplicaciones. Si un
programa pide interacción del usuario, como lo hacen la mayoría de las aplicaciones de Windows 2000,
en general se muestra en una ventana con controles para entradas del usuario. Varias ventanas
pueden verse simultáneamente acomodándolas y estableciendo su tamaño según sea adecuado,
permitiendo así al usuario usar las multitareas más eficientemente. En el caso de Windows 2000, el OS
en sí tiene la responsabilidad de crear, administrar y cerrar estas ventanas.
Menúes
Una característica muy común de todos los programas que usan ventanas es el Menú. Estos grupos de
botones de texto usualmente se encuentran alineados en la parte superior de las ventanas y ofrecen
funcionalidades específicas relacionadas con esa ventana en particular. Por ejemplo, un programa de
procesamiento de texto podría tener un encabezado llamado Herramientas, bajo el cual hay una opción
de menú llamada Conteo de Palabras. Las opciones de menú disponibles cambiarán de ventana a
ventana así como entre diferentes secciones de la misma ventana. Los encabezados de menú más
comunes son Archivo y Editar, donde el usuario puede emitir comandos para abrir, cerrar y guardar
documentos así como copiar y pegar datos. Otros menúes importantes de Windows 2000 incluyen el
menú Inicio (haga clic en el botón Inicio ubicado en la barra de tareas) y el menú contextual (se lo
encuentra haciendo clic con el botón derecho del mouse en casi cualquier parte).
Barra de Tareas
Usualmente hallada en la parte inferior de la pantalla, la barra de tareas de Windows 2000 lleva a cabo
muchas funciones importantes. El menú Inicio (para lanzar aplicaciones) y la bandeja del sistema (que
muestra programas en segundo plano y el reloj) están ubicados en la barra de tareas. Más importante,
la barra de tareas mantiene un rastreo de todas las ventanas abiertas. La Figura muestra ejemplos
de un menú y de la barra de tareas de Windows 2000. Un botón horizontal que muestra el ícono de la
aplicación y un título representa a cada ventana abierta. Los usuarios pueden hacer clic en estos
botones para navegar entre las diversas ventanas y restaurar cualquiera que haya sido minimizada.
Esta herramienta es particularmente útil para los usuarios que trabajan con muchas ventanas a la vez.
216
a última característica básica de Windows 2000 es la capacidad para apagar la PC. Esta opción está
disponibles bajo el comando Apagar el Sistema del menú Inicio, donde los usuarios también pueden
elegir Cerrar Sesión y Reiniciar la computadora. La Figura muestra la ventana usada para apagar
correctamente una computadora que corre Windows 2000.
8.2
Interfaz Administrador/Usuario
8.2.3
Interfaz de Línea de Comandos (CLI) de Windows
La interfaz de línea de comandos (CLI) de Windows 2000 se basa en el anteriormente popular sistema
operativo de los '80, MS-DOS. Ahora se denomina "intérprete de comandos de Windows 2000" aunque
muchos usuarios probablemente todavía piensen en él como en el clásico MS-DOS. La Figura
muestra el intérprete de comandos de Windows 2000. Independientemente de eso, su funcionalidad
básica es casi idéntica a la del MS-DOS a excepción de unos pocos comandos nuevos agregados y
una gran cantidad de comandos desactualizados eliminados. El intérprete de comandos se ejecuta
"encima" de Windows 2000 para proporcionar a los usuarios los beneficios de una CLI dentro de la GUI
de Windows 2000.
217
Como lo muestra la Figura
maneras:
·
·
, el intérprete de comandos de Windows 2000 puede lanzarse de varias
En la barra de tareas, seleccione Inicio > Programas > Accesorios > Prompt de Comandos.
En la barra de tareas, seleccione Inicio > Ejecutar. En el recuadro Abrir tipee cmd.
Después de abrir una ventana del intérprete de comandos, al usuario se le presentará un prompt para
introducir comandos. El prompt de comandos por defecto puede variar dependiendo de cómo se lanzó
el intérprete de comandos, pero en general tendrá un aspecto parecido a éste: C:\>. La apariencia del
prompt de comandos puede cambiar, pero su funcionalidad siempre será la misma. Es simplemente un
lugar para que el usuario tipee comandos en la pantalla.
El proceso básico de introducción de comandos es muy simple. Tipee el comando en el prompt,
presione la tecla Enter del teclado, y vea cualquier salida en la pantalla. Este proceso es el flujo
estándar de actividad del usuario para casi todos los sistemas CLI. Un comando útil a recordar es el
comando doskey. No tiene salida, pero una vez ejecutado, el usuario puede presionar la tecla arriba
del teclado para pasar por comandos introducidos previamente.
Si un usuario pasa mucho tiempo con el intérprete de comandos, otra herramienta útil es ejecutar la
ventana en modo pantalla completa. Presionando Alt + Enter en el teclado, la ventana pasará a ocupar
toda la pantalla con la CLI de Windows 2000. Esto mejora mucho la legibilidad de la interfaz y es
reminiscente de los días del MS-DOS. Para cerrar la pantalla completa o la ventana del intérprete de
comandos, tipee el comando exit. Este comando cerrará inmediatamente el intérprete de comandos y
llevará al usuario de vuelta a la GUI de Windows 2000. Cerrar esta ventana manualmente con el mouse
es considerado impropio por Windows 2000.
8.2
Interfaz Administrador/Usuario
8.2.4
Navegación con el Explorador de Windows
El Explorador de Windows es un importante componente de Windows 2000 y de todos los otros
sistemas operativos Windows desde e incluyendo a Windows 95. Éste no debe confundirse con el
Internet Explorer, que se usa para navegar por Internet. El Explorador de Windows [Windows Explorer]
se usa para navegar por todo el sistema de archivos. El Explorador de Windows proporciona a los
administrador de sistemas una forma fácil de visualizar todos los archivos que hay en la red o están
ubicados en un servidor. Colapsando y expandiendo carpetas se mostrará todo el contenido en la
ventana del lado derecho. Todas las carpetas y directorios se ubican en la ventana del lado izquierdo,
lo cual hace fácil la navegación a través de cualquier unidad instalada en el sistema que pueda
contener directorios o archivos.
Existe una variedad de métodos para abrir el Explorador de Windows. Los usuarios siempre pueden
encontrar un vínculo en el menú Inicio dirigiéndose a la sección Programas y abriéndola. Hacer clic
218
con el botón derecho en el menú Inicio y elegir Explorar también puede abrir el Explorador de
Windows. Otra forma de abrir el Explorador de Windows independientemente de en qué ventana se
encuentra actualmente el usuario es presionando la tecla Windows y la tecla E en el teclado al mismo
tiempo. La tecla Windows es la tecla ubicada entre las teclas Control y Alt en el teclado. La Figura
muestra el Explorador de Windows.
8.3
Cuentas de Usuarios
8.3.1
Agregado de usuarios
Antes de iniciar sesión en cualquier cliente Windows 2000, primero debe crearse una cuenta de usuario
en el servidor de red apropiado. Esta cuenta permitirá al usuario iniciar sesión en un dominio de red
específico usando la información de la cuenta creada por el administrador del sistema. La tarea de
crear esta cuenta en Windows 2000 se lleva a cabo con la herramienta Administración de
Computadora. Seleccione Inicio > Programas > Herramientas Administrativas > Administración de
Computadora para mostrar esta ventana. La Figura muestra la herramienta Administración de
Computadoras.
La herramienta Administración de Computadora permite a un administrador de sistemas administrar
todos los aspectos de una computadora en particular, incluyendo usuarios autorizados, y en el caso de
un servidor de red, los usuarios autorizados de un dominio de red. Para crear un nuevo usuario para
una máquina local, expanda el árbol de directorios a la izquierda para revelar Herramientas del
Sistema, Usuarios Locales y Grupos. Haga clic en el ícono Usuarios para mostrar todas las cuentas de
usuario existentes en la mitad derecha de la ventana. Bajo el menú Acción o del botón derecho del
mouse, seleccione Nuevo Usuario para mostrar una pantalla que pide toda la información de cuenta
necesaria. La Figura muestra la ventana para agregar nuevos usuarios.
219
El Nombre de Usuario es un campo requerido. No puede tener más de 20 caracteres de longitud, y no
puede contener los siguientes símbolos.
/ \ [] : | < > + = ; , ? *.
Tanto el Nombre Completo como la Descripción tienen propósitos informativos y no se requieren.
Después de introducir toda la información de cuenta y presionar el botón Crear, se creará el nuevo
usuario, que puede inmediatamente iniciar sesión en la computadora con el nombre de usuario y
contraseña especificados.
8.3
Cuentas de Usuarios
8.3.2
Administración de cuentas de usuarios
Como se trató anteriormente, la herramienta Administración de Computadoras es el medio principal
para que un administrador de sistemas agregue y administre usuarios en Windows 2000. Estas tareas
deberán ser mucho más intuitivas en este entorno GUI en comparación a una CLI como Linux. En lugar
de memorizar nombres de comandos, los usuarios de Windows 2000 pueden llevar a cabo estas
operaciones de varias maneras, desde simples selecciones en menúes hasta comandos en el teclado.
La técnica de administración de usuarios más simple es hacer clic con el botón derecho del
mouse sobre el nombre del usuario enumerado en la mitad derecha de la ventana de
Administración de Computadoras y seleccionar la tarea apropiada desde el menú. La Figura
muestra las opciones disponibles después de hacer clic con el botón derecho sobre un usuario.
220
A partir de aquí, el administrador del sistema puede elegir instantáneamente Configurar
Contraseña, Eliminar, o Renombrar el usuario. Seleccionar Propiedades también puede
inhabilitar la cuenta, y colocar un tilde en el recuadro La cuenta está inhabilitada. La Figura
muestra las opciones disponibles en la ventana propiedades de la cuenta. Éstas y otras
opciones de administración de usuarios pueden hallarse navegando los menúes restantes de la
ventana. Deberá tenerse mucho cuidado al usar la opción Eliminar ya que no hay manera de
deshacer ese cambio.
8.3
Cuentas de Usuarios
8.3.3
Funciones y Permisos de la Cuenta Administrador
Hablando en general, al referirse a cualquier sistema operativo, la cuenta administrador tendrá
derechos y permisos para controlar, configurar, o cambiar cualquier cosa en el sistema operativo.
Windows usa una variedad de un tipo diferente de cuentas administrador, que está diseñada para
delegar autoridad a las diversas responsabilidades del administrador. Esto incrementa la seguridad
porque las funciones del administrador se delegarán a más de una persona, basándose en el nivel de
acceso que se les otorga con el tipo de cuenta de administrador a la que tienen derecho. Usualmente la
cuenta del administrador principal se asignará a una sola persona, usualmente un administrador IT o
ingeniero IT nivel senior.
Windows 2000 Professional crea automáticamente una cuenta administrador incorporada. Use la
cuenta Administrador incorporada para administrar toda la computadora. Si su computadora es parte
de un dominio, use la cuenta Administrador incorporada para administrar la configuración del dominio.
Tareas efectuadas usando la cuenta Administrador incluyen la creación y modificación de cuentas y
grupos de usuarios, administración de políticas de seguridad, creación de impresoras, y asignación de
permisos y derechos a cuentas de usuario para obtener acceso a los recursos. También hay un grupo
de administradores incorporado, al que pueden agregarse usuarios regulares temporalmente en caso
de que necesiten permisos específicos para instalar o ejecutar un programa por ejemplo.
Algunos de los diferentes tipos de cuenta/grupos Administrador son los siguientes:
·
·
Administradores de Dominio Windows agrega automáticamente Administradores de Dominio
al grupo local de dominio de Administradores para que los miembros de los Administradores de
Dominio puedan llevar a cabo tareas administrativas en cualquier computadora de cualquier
lugar del dominio. Por defecto, la cuenta Administrador es un miembro.
Administradores de Empresa Se pueden agregar cuentas de usuario a Administradores de
Empresas para usuarios que deberán tener control administrativo de toda la red. Por defecto, el
grupo local incorporado de Administradores para cada dominio es un miembro del grupo global
Administradores de Empresa. Por defecto, la cuenta Administrador es miembro.
221
8.4
Administración del Sistema de Archivos
8.4.1
Crear y compartir carpetas
Una tarea importante de un administrador de sistemas es crear carpetas y directorios que los usuarios
de toda la red compartirán y usarán para hacer copias de seguridad de archivos. Para lograr esto en
Windows 2000, el administrador debe primero navegar al directorio donde se creará la carpeta
compartida. Una vez en ese directorio, el administrador hará clic con el botón derecho del mouse en el
escritorio y elegirá Nuevo y luego seleccionará Carpeta. El administrador pondrá un nombre a la
carpeta. Para compartir esta carpeta el administrador hará clic con el botón derecho del mouse en la
carpeta y seleccionará Compartir. Aparecerá el recuadro de propiedades del programa, y el
administrador seleccionará el botón radio compartido, como lo muestra la Figura . El administrador
elegirá un nombre para este directorio. Éste es el nombre con el que se lo conocerá en la red. El
administrador selecciona la solapa Permisos para asignar qué usuarios o grupos tendrán permiso para
acceder a este directorio. La carpeta mostrará una mano debajo de ella. Esto indica que la carpeta ha
sido compartida.
Otra forma de compartir una carpeta en una red es crear una unidad en el servidor. Los clientes son
capaces de mapearse a la unidad de red, que les proporciona acceso a esa unidad en el servidor para
guardar y hacer copias de respaldo de sus archivos. Ésta es una forma más avanzada de lograr la
tarea, pero es una forma recomendada para que un administrador de sistemas cree carpetas
compartidas en la red. En general en esta disposición, se comparte la unidad y se configura una
contraseña para acceder a ella. Luego se agregan carpetas a esa unidad y pueden aplicarse permisos
a esas carpetas. Puede otorgarse acceso a los directorios a ciertos usuarios o grupos. La Figura
muestra una unidad de red compartida con diversas carpetas compartidas disponibles para los
usuarios de la red.
222
8.4
Administración del Sistema de Archivos
8.4.2
Creación de grupos y agregado de usuarios
Windows 2000 permite a los administradores del sistema crear grupos de muchos tipos y usos
diferentes. Uno de estos tipos es el de "grupos locales". Un grupo local existe sólo en una única
computadora y está compuesto por diversos usuarios de esa computadora. Otros grupos más
orientados a la red hallados en Windows 2000 incluyen los grupos globales, los grupos locales de
dominio y los grupos universales. Los diferentes tipos de grupos varían tanto en alcance como en
funcionalidad y son usados por los administradores de sistemas de Windows 2000 para administrar
grandes cantidades de usuarios en una red. En cambio, los grupos locales no se usan en una red
sino que proporcionan un ejemplo suficiente de cómo usar grupos en Windows 2000.
Durante el proceso de instalación, Windows 2000 crea grupos locales por defecto como el grupo
Administradores y el grupo Usuarios. Cada uno de estos grupos tiene diferentes niveles de control
sobre el sistema local. Además, los usuarios pueden crear nuevos grupos locales usando la
herramienta Administración de la Computadora (se encuentra seleccionando Inicio > Programas >
Herramientas Administrativas). Expandir el árbol de directorios a la izquierda revela la
herramientas Usuarios y Grupos Locales, donde la carpeta Grupos muestra todos los grupos
existentes en el sistema. Usando el botón derecho del mouse o el menú Acción de esta ventana
permitirá al usuario seleccionar la opción del menú Nuevo Grupo. Una vez especificado un
nombre, descripción, y miembros, el grupo se agregará al sistema local. Cualquier usuario
enumerado como miembro tendrá permitido el mismo acceso y restricciones de ese grupo. Para
agregar más usuarios, renombrar o eliminar el grupo, simplemente haga clic con el botón derecho
del mouse sobre el nombre del grupo en la ventana y seleccione la opción apropiada del menú. La
ventana Nuevo Grupo se muestra en la Figura .
223
8.4
Administración del Sistema de Archivos
8.4.3
Contraseñas y permisos
Mantener una red de incontables usuarios puede representar serios problemas de seguridad para
un administrador de sistemas. Como se mencionó anteriormente, la seguridad es una de las
consideraciones principales para todos los administradores de sistemas, y deben darse pasos para
asegurar que los usuarios no abusen o interfieran accidentalmente con las operaciones de la red.
Las herramientas de seguridad relacionadas con los usuarios más básicas disponibles para un
administrador son las contraseñas y los permisos.
En la sociedad basada en Internet de hoy, la mayoría de los usuarios comprenden el concepto de
contraseña. Una contraseña es un conjunto secreto de caracteres que sólo un usuario conoce.
Todos los usuarios tienen sus propias contraseñas, que a menudo son elegidas por el usuario
individual para poder recordarla fácilmente (en oposición a una contraseña generada
automáticamente por el sistema que puede ser difícil de recordar). Las contraseñas se usan en
conjunción con un nombre de usuario al iniciar sesión en un NOS para verificar la identidad del
usuario. Una buena contraseña constará de al menos cinco caracteres y será alfanumérica (incluirá
una combinación de letras y números o caracteres especiales). La Figura muestra ejemplos de
buenas y malas contraseñas.
Las contraseñas no necesariamente tienen que ser únicas entre los usuarios pero deberán
conservarse en secreto para garantizar la seguridad de la red. Los administradores de sistema a
menudo requieren que las contraseñas de red se cambien frecuentemente, para molestia de
algunos usuarios. No obstante, si la contraseña de un usuario se hiciera pública, cualquiera podría
224
usarla para iniciar sesión en la red y operar bajo la identidad y el nivel de acceso de ese usuario.
Esta amenaza es una gran preocupación para los administradores de sistemas, que intentan
controlar tales accesos mediante el uso de permisos.
Tipos de Permiso
Los permisos son restricciones creadas por el administrador del sistema que habilitan e inhabilitan
las acciones que un usuario puede realizar en la red. Por ejemplo, un administrador de sistemas
usualmente tiene permisos completos, es decir, sin restricciones, y retiene el acceso total a todas
las partes de la red. Un ejecutivo financiero puede tener el control total sobre ciertos directorios
financieros en un servidor pero ningún control sobre los datos de recursos humanos. Esta división
de acceso aplica una estrecha seguridad en la red, ya que a cada usuario se le otorga acceso
solamente a áreas específicas y necesarias. Los permisos se asignan a los usuarios durante el
proceso de creación de cuentas y se dividen en general en las siguientes categorías:
·
·
·
Permiso de lectura Es la capacidad de leer el contenido de un archivo o directorio.
Permiso de escritura También se llama permiso de "cambio" o "modificación". Esto
permite al usuario editar y guardar cambios en un archivo o agregar y eliminar archivos de
un directorio.
Permiso de ejecución Esto permite al usuario ejecutar un archivo o entrar a un directorio.
Los permisos enumerados arriba pueden asignarse en general a usuarios individuales o grupos de
usuarios en cualquier combinación. Por ejemplo, un ejecutivo financiero puede tener permiso para
entrar y ver el contenido del directorio de recursos humanos (permisos de ejecución y lectura) pero
no para modificar el directorio ni guardar cambios en ninguno de sus archivos (permiso de
escritura). Los permisos proporcionan una herramienta eficaz para que los administradores de
sistemas puedan aplicar la seguridad en la red y se tratará en mayor detalle posteriormente.
8.5
Servicios
8.5.1
Protocolo de Transferencia de Hipertexto (HTTP)
Configurar servicios del Protocolo de Transferencia de Hipertexto (HTTP) en Windows XP es lo
mismo que configurar servicios HTTP en Windows 2000. Habilitando el servicio HTTP en un NOS,
la computadora se vuelve un servidor web capaz de enviar información a través de la World Wide
Web (WWW). En versiones anteriores del NOS Windows, eran necesarios programas separados
para permitir al sistema manipular tales operaciones. No obstante, con el lanzamiento de Windows
2000, las herramientas para llevar a cabo servicios de Internet se incluyen y están incorporadas al
software. Como se trató anteriormente, estos servicios se activan y configuran mediante el uso de
la herramienta Servicios de Información de Internet (IIS) que se encuentra bajo el menú Inicio >
Programas > Herramientas Administrativas.
Lanzar esta herramienta muestra la computadora actual y la lista de servicios de Internet
disponibles. El servicio web HTTP se encuentra aquí bajo el nombre Sitio Web por Defecto. La
Figura muestra la ventana IIS con el Sitio Web por Defecto seleccionado. Seleccionar este ícono
o hacer clic en el signo más para expandir el árbol de navegación revela los muchos directorios y
archivos por defecto incluidos en este servicio. Hacer clic con el botón derecho del mouse en el
ícono Sitio Web por Defecto muestra un menú habilitando al administrador para que inicie, ponga
en pausa o detenga el servicio, además de configurar sus diversas propiedades. Algunas de
estas propiedades son bastante auto-explicativas basándose en sus descripciones, pero la mayoría
requerirá un administrador de sistemas experimentado para configurar apropiada y seguramente el
servicio HTTP.
225
Una vez que este servicio ha sido iniciado, los usuarios pueden ver la página web por defecto del
sistema enviando la siguiente dirección a su navegador web.
http://127.0.0.1
Esta dirección IP se denomina dirección "loopback". Es una dirección estándar de networking que
siempre apunta a la computadora local. A menos que exista una entrada de Sistema de Nombre de
Dominio (DNS) para la dirección IP del sistema NOS, esta dirección loopback o la verdadera
dirección IP del sistema serán necesarias para acceder a estas páginas a través de la World Wide
Web. Por defecto, Windows 2000 mostrará el archivo llamado "localstart.asp" al recibir una solicitud
de información entrante de un navegador web. Si el servicio HTTP del NOS está habilitado con el
propósito de hosting de página web, es probable que el administrador del sistema actualice la
mayoría de estos archivos y configuraciones.
8.5
Servicios
8.5.2
Protocolo de Transferencia de Archivos (FTP)
En las primeras versiones del NOS Microsoft Windows, proporcionar a los usuarios el servicio del
Protocolo de Transferencia de Archivos (FTP) sólo era posible mediante la instalación de un
programa separado. Con el lanzamiento del NOS Windows 2000 actual, este servicio ha sido
incluido como característica estándar que puede ser fácilmente configurada. Antes de iniciar el
servicio, debe determinarse si se han cargado las herramientas apropiadas durante la instalación de
Windows 2000. Específicamente, las herramientas de Servicios de Información de Internet (IIS) son
necesarias para ejecutar los servicios de FTP y HTTP (entre otros) para las computadoras Windows
2000.
226
Para determinar si es necesario instalar el paquete de Servicios de Información de Internet,
seleccione Inicio > Configuración > Panel de Control > Agregar/Quitar Programas. Haga clic en
el botón Agregar/Quitar Componentes de Windows y asegúrese de que el recuadro IIS esté
tildado, indicando que está listo para usar. Si el recuadro no está tildado, un administrador de
sistemas debe tildar el recuadro y proporcionar el software Windows 2000 necesario para actualizar
el NOS para que incluya el componente.
Una vez que se agregó el componente IIS de Windows 2000, el servicio FTP está listo para ser
configurado. Lanzar la herramienta Servicios de Información de Internet hace esto. Seleccione
Inicio > Programas > Herramientas Administrativas > Administrador de Servicios de Internet
para mostrar la ventana. Hacer clic en el signo más junto al nombre de la computadora revela los
diversos servicios relacionados con Internet que mantiene esta herramienta, incluyendo el servicio
de FTP para Windows 2000. Abriendo el menú contextual sobre el ícono Sitio FTP por Defecto, el
administrador del sistema puede iniciar, detener o poner en pausa el servicio además de configurar
sus diversas propiedades. La Figura muestra las opciones disponibles para el Sitio FTP por
Defecto y la Figura muestra la ventana de propiedades para el Sitio FTP por Defecto. Una vez
que el servicio FTP se inicia, los usuarios autorizados pueden conectarse remotamente y transferir
archivos.
8.5
Servicios
8.5.3 Telnet
Antes de que una conexión Telnet pueda establecerse con una computadora Windows 2000
remota, el sistema debe configurarse para aceptar sesiones Telnet entrantes mediante la
herramienta Administración del Servidor Telnet. Seleccione Inicio > Programas > Herramientas
Administrativas > Administración del Servidor Telnet. Aquí el servicio telnet puede ser iniciado,
detenido y configurado por un administrador de sistemas. La Figura muestra las opciones
disponibles para administrar el Servidor Telnet. Por razones de seguridad, sólo un usuario con
privilegios de administrador puede administrar el servidor Telnet en una máquina Windows 2000.
Habilitar estas sesiones de Telnet presenta un problema de seguridad potencialmente serio que los
administradores de sistemas siempre deben considerar. Sin los usuarios, grupos y permisos
apropiados aplicados, el servidor Telnet puede convertirse en una puerta trasera para un acceso no
autorizado al sistema.
227
Una vez que el servidor Telnet está activado, el acceso se controla usando las cuentas de usuario
locales creadas en esa máquina. Para que un usuario haga Telnet a una máquina Windows 2000,
el usuario debe también poder iniciar sesión en esa máquina localmente. Por defecto, el servidor
Telnet de Windows 2000 está configurado para usar el Administrador de LAN de Windows NT
(NTLM) para autenticación del usuario. Esto significa que no se pide a los usuarios que introduzcan
manualmente sus nombres de usuario y contraseñas sino que en cambio son verificados mediante
la información de inicio de sesión previamente enviada cuando se inició la sesión actual de
Windows 2000. Con NTLM, el proceso de inicio de sesión tiene lugar automáticamente, y los
usuarios autorizados reciben instantáneamente un prompt de comandos. Esta función puede
activarse o desactivarse mediante la herramienta Administración del Servidor Telnet seleccionando
la opción del menú 3 para cambiar configuraciones del Registro y luego la opción del menú 7 para
especificar un nuevo valor NTLM. La Figura muestra valores NTLM válidos.
Si el administrador del sistema desea restringir el acceso a telnet a usuarios locales específicos, un
grupo local de Clientes Telnet puede crearse. Windows 2000 reconocerá automáticamente este
grupo y sólo permitirá a sus miembros (y administradores de sistemas) iniciar sesión remotamente
mediante Telnet. Una vez que un usuario local ha iniciado sesión exitosamente, se otorgará al
usuario permisos de archivos y directorios mediante el intérprete de comandos basado en la
seguridad del sistema del archivo NTFS. La Figura exhibe una muestra de una sesión telnet
activa. Note que sólo dos conexiones Telnet se permiten por servidor Telnet Windows 2000.
228
8.5
Servicios
8.5.4
Detención e Inicio de Servicios en Windows
Windows proporciona una pantalla de Control de Administración de Servicios que enumera todos
los servicios disponibles en el sistema operativo Windows. En esta página se encontrarán todos los
servicios ejecutándose o inhabilitados actualmente. Para acceder a esta página, haga clic en la
solapa "Servicios" de las herramientas Administrativas de Windows. Existen dos métodos básicos
para ver los servicios en Windows 2000. Son los siguientes.
1. Usando el Menú Inicio, haga clic en Programas > Herramientas Administrativas >
Servicios.
2. Haga clic con el botón derecho del mouse en el ícono "Mi PC" y seleccione "Administrar".
Se abrirá la pantalla "Administración de Computadora". Expanda el menú "Servicios y
Aplicaciones" para mostrar la solapa "Servicios".
Los servicios se muestran en orden alfabético por nombre. Una descripción de lo que hace cada
servicio se muestra a la derecha. Los servicios de la computadora que se administran mediante la
utilidad Administración de Computadora se llaman MMC. Para administrar un servicio abra la
ventana Servicios en una de las utilidades y haga doble clic en el servicio a administrar. Se abrirá el
recuadro de diálogo de las propiedades del servicio. Las solapas y la información en ellas se
describen a continuación:
·
·
·
·
·
·
·
·
·
Solapa General
Nombre del servicio
Ruta al programa que proporciona el servicio
Cómo se inicia el servicio, por ejemplo manual
Estado
Botones que permiten iniciar, detener, poner en pausa o reanudar el servicio
Solapa Inicio de Sesión Configure la cuenta usada para ejecutar el servicio. Puede
seleccionarse un perfil de hardware al que se ha de asociar el servicio. El servicio puede
habilitarse o inhabilitarse en cada perfil de hardware.
Solapa de Recuperación Configura la acción a tomar si el servicio falla o no inicia en el
fallo primero, segundo o adicionales.
Ninguna acción
229
·
·
·
·
Reiniciar el servicio
Ejecutar un archivo
Reiniciar el sistema
Solapa Dependencias Muestra los servicios que deben ejecutarse antes de que el servicio
seleccionado pueda ejecutarse. Éstos son servicios de los cuales el servicio seleccionado
depende para ser ejecutado.
Usar la solapa Servicios en MMC de Windows 2000 le permite iniciar y detener modularmente
cualquier servicio que se esté ejecutando en Windows 2000. Por ejemplo, es posible detener
manualmente al cliente Windows 2000 para que no use DHCP o DNS. Otro ejemplo sería si el
servidor fuera un servidor web o ftp ejecutando IIS (Servicios de Información de Internet). Usando
MMC, es posible detener o iniciar manualmente el servidor IIS.
8.5
Servicios
8.5.5
Relación servidor/cliente de e-mail
En general en un entorno de red habrá un servidor de e-mail. Microsoft usa Exchange como
servidor de e-mail. El lado del cliente del servicio de e-mail puede ser una variedad de productos de
suite de oficina. Por otro lado, el software de cliente más ampliamente usado es Outlook, que es
distribuido por Microsoft y funciona con Exchange. Otros ejemplos de sistema servidor y cliente de
e-mail son Novell Groupwise, al que también puede accederse desde Microsoft Outlook, y Lotus
Notes.
El servidor de e-mail controla todo el e-mail que se envía y recibe. Cuando un usuario envía e-mail
a otro usuario, éste es enviado primero al servidor donde se colocará en la casilla de correo del
destinatario. El usuario que está recibiendo el e-mail abre el programa de e-mail y lee el e-mail que
está en la casilla de correo. Una vez que el usuario borra el e-mail, se eliminará del servidor. Los
servicios de e-mail funcionan como el sistema postal con algunas computadoras cumpliendo la
función de la oficina de correos. La Figura muestra el proceso de envío de e-mail. La cuenta de
e-mail del usuario opera como una casilla de correo donde el correo se guarda para el usuario
hasta que es recogido a través de la red mediante un programa de cliente de e-mail que se ejecuta
en el sistema del usuario. El e-mail continúa siendo la función más ampliamente utilizada de las
redes de computadoras en muchas partes del mundo.
El e-mail funciona como una aplicación de almacenamiento y envío. Los mensajes de correo (y su
información de identificación, como por ejemplo el emisor, destinatario y tiempo de salida) se
almacenan en un servidor de e-mail (casilla de correo) hasta que el destinatario recupera el correo.
En general, los mensajes de e-mail son comunicaciones breves. Los sistemas de e-mail actuales
también permiten a los usuarios adjuntar archivos más grandes de diferentes tipos (documentos,
imágenes, películas) a sus mensajes. Estos adjuntos también pueden recuperarse o descargarse
junto con el mensaje de e-mail. De esta manera, los servicios de e-mail se funden con los servicios
de transferencia de archivos en la red.
Los sistemas de e-mail han evolucionado junto con la tecnología de networking. El rápido
crecimiento de Internet ha permitido que más y más gente se conecte online. Esto permite una
230
comunicación inmediata entre usuarios de la red. La naturaleza de almacenamiento y envío de los
sistemas de e-mail no requiere que el destinatario esté conectado cuando se envía el e-mail. El
destinatario puede recoger el e-mail en un momento posterior.
Además del e-mail, Internet ha dado nacimiento a una variedad de sistemas de mensajería
instantánea que permiten a los usuarios de la red conversar con poco retraso. Esta capacidad se
conoce como tiempo real, y se usa cuando dos o más usuarios se conectan a la red al mismo
tiempo para chatear.
8.5
Servicios
8.5.6
Impresión en Windows 2000
Además de compartir información importante en directorios y configurar una relación de
servidor/cliente de e-mail, las redes permiten a los usuarios compartir caros dispositivos de
impresión. Implementando servicios de impresión, una red puede hacer una impresora de alta
velocidad de alto costo accesible a muchos usuarios como si estuvieran directamente conectados a
sus propias computadoras. La red puede transportar solicitudes de impresión y copias de
documentos de muchos usuarios a un servicio de impresión central donde estas solicitudes se
procesan. Varios servicios de impresión, cada uno de ellos ofreciendo una diferente calidad de
salida, puede implementarse de acuerdo a los requisitos de los usuarios. Bajo control
administrativo, los usuarios pueden seleccionar el servicio que necesitan para un trabajo en
particular. De esta forma, las redes permiten un uso más eficiente de costosos dispositivos de
impresión sin tener que duplicarlos.
Un servidor de impresión es una computadora dedicada a manipular trabajos de impresión de los
clientes de la manera más eficiente. Puesto que manipula solicitudes de varios clientes, un servidor
de impresión es usualmente una de las computadoras más potentes de la red. Un servidor de
impresión deberá tener los siguientes componentes:
·
·
·
Un procesador potente Puesto que el servidor de impresión usa su procesador para
administrar y enrutar la información de impresión, necesita ser lo suficientemente rápido
para manipular todas las solicitudes entrantes.
Adecuado espacio en el disco duro Los servidores de impresión a menudo capturan
trabajos de impresión de los clientes, los colocan en una cola de impresión, y los alimentan
a la impresora en su momento. Esto requiere que la computadora tenga suficiente espacio
de almacenamiento para contener estos trabajos hasta que se completen.
Memoria adecuada El procesador del servidor y la Memoria de Acceso Aleatorio (RAM)
alimentan los trabajos de impresión a una impresora. Si la memoria del servidor no es lo
suficientemente grande como para manipular un trabajo de impresión entero, el trabajo
debe alimentarse desde el disco rígido, lo cual es mucho más lento.
El rol de un servidor de impresión es proporcionar al cliente acceso a recursos de impresión y
proporcionar feedback a los usuarios. Al usar impresoras que se conectan directamente a la red, el
servidor de impresión "enruta" trabajos de impresión a la impresora apropiada. Con la tecnología de
impresión basada en el host, el servidor de impresión actúa como intérprete entre el cliente y la
impresora a la cual está directamente conectada. Si se lo configura apropiadamente, el servidor de
impresión también puede enviar a los clientes el software de controlador de impresora necesario
para acceder a la impresora. Puesto que los servidores de impresión administran trabajos de
impresión a través de una cola de impresión, también pueden proporcionar feedback acerca de las
impresoras a los usuarios de la red. Este feedback puede incluir un mensaje de confirmación de
que un trabajo de impresión se ha completado y un tiempo estimado para completar el trabajo de
impresión. También puede informar sobre cualquier error que puede haber encontrado en el
proceso de impresión como falta de papel en la impresora, tipo de papel incorrecto, atasco de
papel, falta de tóner/tinta, etcétera.
Compartir una Impresora Local
Para compartir una impresora que está conectada a la computadora local, diríjase a la carpeta
Impresoras, accesible a través del Panel Control, y luego haga clic con el botón derecho del mouse
231
sobre el nombre de la impresora. Elija Compartir, haga clic en Compartido como botón de opción, y
luego introduzca un nombre para compartir o acepte el nombre por defecto. La Figura muestra
este proceso en Windows 2000.
Conexión a una Impresora Compartida
Hay dos formas de conectarse a una impresora de red compartida. El usuario puede usar el
Asistente Agregar Impresora o usar el comando net use en la línea de comandos. En las siguientes
secciones, cada método se examina en detalle.
Uso del Asistente Agregar Impresora
La forma más fácil de usar una impresora remota en Windows es agregarla con el Asistente
Agregar Impresora. Para ello, haga doble clic en el ícono Agregar Impresora de la carpeta
Impresoras y siga las instrucciones del asistente.
NOTA:
Microsoft usa asistentes, que están compuestos por una serie sistemática de recuadros de diálogo,
para guiar a los usuarios a través de muchas tareas administrativas. Una vez finalizado el asistente,
la impresora de red aparece en la carpeta Impresoras, y los usuarios pueden imprimir en ella desde
sus aplicaciones como si fuera una impresora local. Los trabajos de impresión pasan a spool (se
almacenan en la memoria o en el disco duro) para esperar en la cola para ser impresos. La lista de
trabajos de impresión pendientes se denomina spool de impresión.
Uso del Comando net use para Capturar un Puerto de Impresora
El comando net use puede usarse para capturar un puerto de impresora y redirigir trabajos de
impresión desde el puerto local (LPT1) a la impresora de red. La sintaxis para el comando, que se
introduce en el prompt de comandos, es la siguiente:
net use LPT1: \\nombrecomputadora\nombreimpresora
El nombrecomputadora es el servidor de impresión al cual el dispositivo de impresión
(nombreimpresora) está conectado físicamente.
8.5
Servicios
8.5.7
Scripts
Windows 2000 puede dar lugar a muchos tipos de lenguajes de scripting usando su Windows Script
Host (WSH) incorporado. Este componente de Windows 2000 y XP permite a los usuarios crear
scripts usando los lenguajes VBScript o JavaScript. WSH también puede reconocer cualquier otro
lenguaje de scripting que el usuario desee. Cuando se crea un archivo de texto, el usuario
simplemente nombra el archivo con la extensión de archivo apropiada para indicar su lenguaje de
scripting a WSH. Por ejemplo, un archivo VBScript tendrá una extensión de archivo .vbs, mientras
que un archivo JavaScript terminaría con la extensión .js. La Figura muestra un archivo con una
232
extensión .vbs en Windows 2000. Cuando cualquiera de los archivos scripts es ejecutado, WSH
maneja el código basándose en estas extensiones de los archivos.
Aunque los lenguajes de scripting se consideran más fáciles de aprender que los lenguajes de
programación estándar (como Microsoft Visual C++), la capacidad para crear scripts funcionales en
Windows 2000 y Windows XP requiere capacitación y práctica específicas. Aunque tanto VBScript
como JavaScript ofrecen una funcionalidad similar, cada uno consiste en diferente sintaxis y
estructura de codificación. Volverse experto en VBScript no incrementará necesariamente la
habilidad para crear código JavaScript apropiado, y viceversa. Muchos usuarios no tendrán la
capacitación apropiada para aprovechar el scripting en Windows 2000, pero es más probable que
los administradores de sistemas pasen el tiempo necesario estudiando estos lenguajes. Hacerlo
permite que muchas de las tareas comunes de administración mencionadas anteriormente se
simplifiquen y automaticen.
Un Script Windows 2000 Simple
Para ver cómo funcionan los scripts en Windows 2000 y XP, puede crearse fácilmente un script
simple "hello world". Los usuarios pueden abrir el editor de texto Bloc de Notas (Inicio >
Programas > Accesorios > Bloc de Notas) para editar éste y otros scripts. En el Bloc de Notas, la
siguiente línea de código es todo lo necesario para que el script opere:
msgbox "Hello world."
Guardar este archivo con la extensión de archivo .vbs (Hello World.vbs) indica a WSH que es un
archivo VBScript. Haciendo doble clic en el archivo, se ejecuta el archivo, y un único recuadro de
mensaje aparece con el mensaje previamente codificado. El mensaje de error se muestra en la
Figura . Este ejemplo es extremadamente simple y no ilustra las complejidades del lenguaje
VBScript, pero sí proporciona una mirada superficial al potencial inherente al scripting de Windows
2000.
Resumen
Este capítulo trató el Sistema Operativo Windows 2000. Algunos de los conceptos
importantes a retener de este capítulo son:
·
·
Hay cuatro pasos principales en el proceso de instalación de Windows 2000. La
instalación comienza cuando se ejecuta el programa Setup. Esto prepara el disco
rígido y copia archivos. Luego Setup ejecuta un asistente que proporciona páginas de
información, que se usan para completar el resto de la instalación.
Windows Explorer proporciona a los administradores de sistemas una forma fácil de
visualizar todos los archivos que están en la red o ubicados en un servidor. Carpetas
233
·
·
colapsables y expansibles mostrarán todo el contenido en la ventana del lado
derecho.
La herramienta Administración de la Computadora permite a un administrador de
sistemas administrar todos los aspectos de una computadora en particular,
incluyendo usuarios autorizados, y en el caso de un servidor de red, los usuarios
autorizados de un dominio de red.
Muchos usuarios no tendrán la capacitación apropiada para aprovechar scripting en
Windows 2000, pero es más probable que los administradores de sistema pasen el
tiempo necesario estudiando estos lenguajes. Hacerlo permite que muchas de las
tareas de administración se simplifiquen y automaticen.
Aunque existen similitudes en los procesos de instalación de Windows 2000 y Linux, también
hay muchas diferencias. El siguiente capítulo detalla la instalación para el sistema operativo
Linux.
9. Procedimientos de instalación del Linux
Descripción general
Planificar la instalación es un paso importante en una instalación de Linux. Esto se debe a la
naturaleza más compleja y problemas de compatibilidad que surgen con Linux. Un buen plan
de instalación hará al proceso de instalación real mucho más fácil. Una vez que el plan ha
sido establecido es el momento de pasar al procedimiento de instalación en sí. Es imposible
tratar cada detalle de la instalación de cada distribución de Linux en sólo un capítulo. No
obstante, este capítulo presenta una instalación detallada de Red Hat Linux. Red Hat Linux
es la distribución que se usa en este curso. Los procedimientos de instalación de otras
distribuciones son muy similares excepto que el orden de los pasos de instalación puede ser
un poco diferente.
El sistema X server es un aspecto importante del proceso de instalación y este capítulo
tratará este tema en detalle. Este capítulo trata la instalación y configuración de X server en
un sistema Linux. Algunas distribuciones instalan y configuran X automáticamente. No
obstante, este capítulo trata cómo personalizar o cambiar cualquiera de las configuraciones
del X server una vez completa la instalación. Una vez que el sistema operativo ha sido
instalado hay varias tareas post instalación y configuraciones que es necesario hacer.
9.1
Tareas Pre-Instalación
9.1.1
El método de arranque
En los capítulos anteriores, se trataron los diversos pasos para prepararse para la instalación de los
sistemas operativos Linux. Esto incluía determinar las necesidades de hardware y software así
como la compatibilidad. También se trataron las diversas distribuciones de Linux y la elección de la
distribución apropiada para la instalación. Después de tomar estas decisiones el siguiente paso es
realmente comenzar a instalar el sistema operativo. Si recuerda de previos capítulos también, hay
muchos métodos de instalación diferentes de los cuales elegir. Se puede instalar un sistema
operativo mediante un disco booteable, CD-ROM o red (Web, ftp, NFS, SMB).
Instalar Linux usando este método requerirá que el sistema se arranque primero usando diskettes
booteables o un CD-ROM booteable. Estos discos a veces se empaquetan con la distribución Linux
que se está instalando. Usar este método es útil para instalar esa distribución de Linux en particular
solamente, así como llevar a cabo mantenimiento en el sistema. Este método también requiere que
se haga la configuración apropiada primero en el BIOS del sistema. Hay una configuración en el
BIOS que le indicará al sistema desde qué medio arrancar. Algunas de estas opciones son diskette,
disco rígido, CD-ROM, una unidad de red que tiene los archivos almacenados en un servidor, o una
unidad removible de alta capacidad como una unidad Jaz o Zip. La Figura proporciona un
ejemplo de la pantalla de la sección del orden de dispositivos de Arranque en el BIOS. De estas
opciones, por lo común las únicas que se usarán para arrancar un sistema son el diskette, el CDROM o un método de Arranque del OS Existente.
234
Al arrancar el sistema usando una disquetera, el BIOS necesitará configurarse primero. Cada
distribución deberá venir equipada con diskettes booteables. Si los diskettes no se incluyen, puede
crearse uno. A veces el fabricante no incluye los diskettes booteables porque los CDs que
contienen el OS son booteables y los discos no son necesarios. Este método se tratará a
continuación. Una vez que las configuraciones apropiadas se han establecido en el BIOS, es
necesario insertar el diskette en la unidad. El sistema necesitará iniciarse entonces, lo cual iniciará
el proceso de instalación.
Si los CDs son booteables, como en el caso del método del diskette, será necesario establecer las
configuraciones apropiadas en el BIOS. Todo lo que se necesita hacer es insertar el CD en la
unidad de CD-ROM o DVD-ROM e iniciar el sistema. En este punto la instalación debería
comenzar.
Otra forma de arrancar un sistema para comenzar el proceso de instalación es usando el método
de arranque del OS existente. Ésta es una forma fácil de hacer una instalación si el OS será de
arranque dual o si el OS existente actualmente en el sistema ha de reemplazarse. La mayoría de
las distribuciones vienen con esta opción en los CDs de instalación. Lo único que necesita hacerse
es insertar el CD en la unidad y el programa deberá iniciar automáticamente. El programa apagará
el OS que está actualmente en ejecución. Cuando el sistema inicia, comenzará el proceso de
instalación.
9.1
Tareas Pre-Instalación
9.1.2
Medios de instalación
El primer paso en el proceso de instalación de Linux es determinar desde qué medio se llevará a
cabo la instalación. Una variedad de opciones están disponibles para instalar Linux incluyendo CD,
servidor de red, diskettes o desde un disco rígido que tiene los archivos del CD copiados en él.
Este curso usa el método del CD.
La forma más fácil y rápida de hacer una instalación es mediante el CD de instalación. Actualmente
cada distribución de Linux viene en CD. Algunas distribuciones, como SuSE Linux, incluyen
algunos de sus archivos de instalación en DVD-ROM en lugar de en CD. En capítulos anteriores se
hizo notar que SuSE Linux incluye prácticamente todos los paquetes disponibles. El DVD-ROM
puede contener el equivalente de varios CD-ROMs, lo cual permite a SuSE Linux incluir todos esos
paquetes. Un DVD-ROM sería necesario en lugar de un CD-ROM en este caso.
Linux también puede instalarse desde una conexión de Red. Este método solamente se
recomienda si hay una conexión de red rápida. El sistema tendrá que arrancarse desde un diskette
primero, y luego elegir la opción instalar el OS mediante la conexión de red. La ruta hacia donde
están ubicados los archivos de instalación necesitaría conocerse. Instalar Linux mediante la red es
una buena opción cuando se instala en un sistema que no tiene un CD o DVD-ROM instalados. En
este caso la unidad de CD-ROM de otro sistema de la red puede compartirse, conectándose a la
235
unidad de CD-ROM de ese sistema mediante la red, puede accederse a los archivos de instalación.
Una desventaja de este método es que puede ser lento y no siempre es confiable. Si la red o la
conexión remota se pierde, la instalación tendría que comenzarse de nuevo desde el principio.
Linux puede instalarse desde archivos que están ubicados en una partición diferente, incluso si
esta partición tiene un OS diferente ejecutándose en ella. Esto se conoce como instalar desde un
disco rígido. Si el OS se descargó en una partición que está ejecutando Windows por ejemplo, la
otra partición podría acceder a esos archivos e instalar Linux desde esa partición. Se usaban
diskettes para instalar Linux en algunas distribuciones antiguas, no obstante esto se ve raramente
hoy. Hay una distribución que todavía usa un diskette para instalar el OS. Aunque no es un OS
real, el Proyecto Router Linux(http://www.linuxrouter.org) es un OS Linux que se instala desde un
diskette y puede instalarse en una computadora antigua que lo convertirá en router de red.
9.1
Tareas Pre-Instalación
9.1.3
Selección de los parámetros apropiados para la instalación
Éstos son los primeros pasos que se darán después de haber seleccionado el método de instalación
apropiado y el sistema se ha arrancado. Algunas de las primeras pantallas mostradas darán
opciones para seleccionar determinados parámetros para el sistema operativo. Estas opciones
incluyen cosas tales como el idioma que se usará, y la fase de detección del hardware. Todos estos
procedimientos proporcionan un medio para aplicar los parámetros que el sistema necesitará para
poder estar preparado para la siguiente fase, que será seleccionar los paquetes apropiados para
instalar.
Idioma
Una de las primeras opciones que se mostrarán será la opción de qué idioma ha de usarse. La
Figura proporciona un ejemplo de la pantalla de selección del idioma que se usa durante la
instalación. Éste debería ser un paso claro y simple. Obviamente, la opción en este caso sería
seleccionar el idioma de la persona que usará el sistema o el idioma de la persona que instala el OS
en la computadora.
Términos de la Licencia
Aunque no tan estrictos en el caso de Linux como podrían serlo con otros sistemas operativos como
los de Microsoft, los términos de la licencia son importantes y es igual de importante que la persona
que está haciendo la instalación lea estos términos. Aunque Linux es de fuente abierta a veces hay
software propietario que podría venir con la distribución. Por lo tanto, no siguiendo los términos de
este acuerdo de licencia podría existir la posibilidad de violaciones de derecho de autor.
Clase de Instalación
Una vez que los términos de la licencia han sido aceptados, el siguiente paso será seleccionar el
tipo de instalación a realizar. Dependiendo de qué distribución se está instalando, esta fase será
diferente hasta cierto punto. Algunas distribuciones pedirán al usuario que seleccione una
instalación recomendada o para expertos en este punto. Otras distribuciones, como Red Hat,
brindará la opción de elegir hacer una Instalación para Estación de Trabajo, Servidor, o
Personalizada. Al instalar Linux por primera vez, elegir el tipo de instalación recomendada puede ser
el método más fácil. No obstante, eligiendo este método, no existirá la posibilidad de optar por el tipo
de instalación que se está realizando. Si se elige la opción de estación de trabajo con Red Hat 7.2,
236
se instalarán las funciones básicas que podría necesitar una estación de trabajo incluyendo el
sistema X Window. No instalará funciones de servidor como daemons FTP, HTTP o Telnet. Si se
elige la instalación de servidor, estas funciones se instalarán, pero el sistema X Window no. Esto
significa que la línea de comandos será la única opción para administrar el servidor. La opción de
instalación personalizada permitirá elegir qué opciones instalar. Por ejemplo, elegir tener el sistema
X Window instalado así como algunos de los daemons que podrían ser necesarios para un servidor
como FTP, HTTP, y Telnet.
Mouse y Teclado
Después de seleccionar el tipo apropiado de clase de instalación, el sistema atravesará un paso en
el cual se detectarán los discos rígidos del sistema. Luego el sistema detectará el mouse y el
teclado del sistema. Linux puede autodetectar el mouse y el teclado y lo más probable es que se
seleccione el correcto. Se mostrará una ventana para elegir el tipo de mouse y teclado que está
conectado a la computadora si no se auto-detecta. Las Figuras y proporcionan ejemplos de las
pantallas de selección de teclado y mouse. Funciones tales como la cantidad de botones que tiene
el mouse y si tiene un rodillo o no pueden seleccionarse. Linux soporta muchas clases de teclados
también y la opción correcta deberá seleccionarse. No hay muchas opciones además de elegir si es
un teclado de EE.UU. o un Teclado de EE.UU. (Internacional). Elija teclado de EE.UU. si el teclado
se vendió en Estados Unidos. Elija Teclado de EE.UU. (Internacional) si no fue así.
9.1
Tareas Pre-Instalación
9.1.4 Creación del sistema de archivos Linux
Una vez especificados los parámetros apropiados para la instalación, particione la unidad de disco
rígido y elija qué sistema de archivos ha de estar en este sistema Linux. La Figura ilustra un
237
ejemplo de la pantalla que se presenta durante la instalación, que se usa para determinar el
método de particionamiento que se desea usar. Particionar el disco rígido no se tratará en esta
sección porque el particionamiento de una unidad de disco rígido para un sistema operativo Linux
se trata en detalle en el Capítulo 7. El formateo del disco rígido se mencionó en el módulo 7
también, no obstante, esto no se trató en detalle. Básicamente cuando Linux crea el sistema de
archivos, está formateando el disco rígido. Éste es el proceso durante el cual el sistema de archivos
ext2, ext3, o Reiser se escribirá en la partición. Tenga en cuenta que formatear el disco rígido
borrará completamente cualquier dato que esté actualmente en la unidad o partición que se está
formateando. Por lo tanto, asegúrese de que los datos de la unidad estén resguardados como
backup o ya no se necesiten.
A veces formatear el disco rígido es innecesario. A veces estos sistemas de archivos ya han sido
creados con otra herramienta de particionamiento y formateo como PartitionMagic. Otra situación
donde el disco rígido podría no necesitar formateo o particionamiento es al actualizar o practicar el
arranque dual con otro OS instalado. Si el usuario estuviera llevando a cabo una instalación
"fresca" de Linux, formatear el disco rígido sería deseable.
Una opción que se incluye con la mayoría de las distribuciones de Linux al formatear es la opción
para llevar a cabo una "verificación de bloques defectuosos". Ésta es una opción avanzada que
verificará cada sector del disco o partición para asegurarse de que puede contener los datos antes
de formatearlo. Esta verificación llevará más tiempo que un formateo regular,. pero puede ahorrar
tiempo a largo plazo. Si durante la verificación se encuentran bloques defectuosos, es una buena
idea reemplazar el disco. Éste es una señal de que el disco está empezando a fallar.
Formateo de Bajo Nivel y de Alto Nivel
Hay dos tipos de formateo que puede llevarse a cabo. Un formateo de Bajo Nivel redefine los
sectores físicos del disco rígido. Un formateo de Alto Nivel realmente creará o recreará el sistema
de archivos. Normalmente los discos rígidos vienen con un formateo de bajo nivel; en la mayoría de
los casos no hay necesidad de formatear el disco. En Linux, usar el comando fdformat llevará a
cabo un formateo de bajo nivel y el comando mkfs llevará a cabo un formateo de alto nivel. Para
aprender más acerca de estos comandos vea sus páginas man tipeando man fdformat or man
mkfs en la línea de comandos.
9.1
Tareas Pre-Instalación
9.1.5
Selección de los paquetes a instalar
Después de particionar y formatear el disco rígido, se mostrará una lista de paquetes que pueden
instalarse, como se muestra en la Figura . Hay muchos paquetes de los cuales elegir,
dependiendo de qué distribución se está instalando. Tenga en cuenta que hay una cantidad
limitada de espacio en el disco disponible. Instalar todos estos paquetes consumirá espacio del
disco. Por ejemplo, muchos de los paquetes, en particular de la estación de trabajo KDE o GNOME
pueden consumir cientos de megabytes de espacio en disco. Algunas distribuciones mostrarán
cuánto espacio será necesario para el paquete en particular que será instalado. Otras
238
distribuciones no muestran esto hasta que el paquete no se ha seleccionado y el proceso de
instalación pasa al siguiente paso.
Algunas distribuciones, como Mandrake, permitirán la opción de seleccionar todo o parte de un
paquete a instalar. Esto es de ayuda si se desea alguna de las funciones de un paquete en
particular. Si se selecciona esta opción, la capacidad de navegar a través del paquete y seleccionar
las funciones particulares deseadas es posible. Algunas de estas funciones individuales de
paquetes tienen una dependencia, lo cual significa que otros programas individuales o funciones
necesitarán instalarse para que funcionen. Instalando uno de estos paquetes sin instalar el
programa de dependencia o paquete, el sistema indicará que los otros paquetes deben instalarse.
Una vez seleccionados los paquetes, el proceso de instalación procederá al siguiente paso.
Esto es donde la instalación real del sistema operativo tiene lugar.
9.1
Tareas Pre-Instalación
9.1.6
Multimedia Linux
Multimedia demanda más del hardware de computadoras que muchas otras actividades
informáticas, por lo tanto hay algunos requisitos generales para tener una experiencia multimedia
satisfactoria en Linux. Recientemente, el soporte para hardware popular en Linux ha sido común.
Sonido
La mayoría de las nuevas placas de sonido tienen al menos un soporte básico en Linux. Mientras
que muchas son soportadas directamente por el kernel, hay varias opciones alternativas incluyendo
la Arquitectura de Sonido Linux Avanzada y el Sistema Abierto de Sonido. Una placa de sonido
capaz de una salida de 16 bits PCM será suficiente para todos excepto la salida de audio más
extrema. El soporte MIDI de hardware es menos frecuente para la mayoría de las placas, pero las
utilidades pueden simular dispositivos MIDI en el software.
Video
El video es generalmente lo que queda atrás en multimedia Linux. La mayor parte de la aceleración
de hardware aún requiere una gran cantidad de esfuerzo, aunque las nuevas placas más populares
son bien soportadas. Nvidia libera un controlador acelerado de fuente cerrada para XFree86,
mientras que la línea Radeon de ATT tiene soporte DRI (Direct Rendering Infrastructure) en el
kernel Linux.
Las utilidades de video pueden mostrar salida acelerada de hardware mediante las extensiones XVideo (Xv) disponibles en XFree86 4.X. X-Video permite mostrar las imágenes con escala y filtrado
de calidad usando segmentos de memoria compartida. Para probar si la salida Xv acelerada de
hardware está disponible, use el comando xvinfo .
239
En general, hay tres tipos de archivos de película disponibles. Primero, están los archivos MPEG-1.
No debería haber ningún problema en reproducirlos porque no se necesita ningún programa de
compresión/decodificador (codec) propietario. Esto significa que se puede reproducir el archivo en
cualquier reproductor. Además de estos archivos MPEG disponibles en general, están los archivos
AVI. La mayor parte del tiempo, éstos son archivos codificados y comprimidos por medio de un
codec propietario. Para reproducir archivos AVI, se necesita el codec propietario, que no siempre
es bien soportado en Linux.
Un programa popular de uso en Linux, que es capaz de soportar muchos de estos codecs
propietarios como archivos .avi o .mov, es Xine. Necesitará descargar dos partes para poder usar
Xine. Uno es el archivo con las librerías necesarias en él y el otro es un archivo que contiene los
binarios. Para instalar Xine, descargue las librerías primero, compílelas y luego descargue los
archivos-ui (archivos de interfaz del usuario). Una vez descargados los archivos, compílelos e
instálelos. Luego diríjase al directorio fuente, que se creó al extraer los archivos, y emita los
siguientes comandos. Necesitará un compilador C/C++ para poder llevar a cabo la siguiente
operación.
./configure
make install
make clean
Haga esto primero para las librerías Xine, luego descargue los archivos-ui de Xine y lleve a cabo el
mismo procedimiento en ellos. Existen posibilidades de que obtenga un mensaje de error mientras
intenta configurar la interfaz del usuario de Xine. Esto podría deberse a que el instalador no pudo
encontrar las librerías de Xine. Si esto ocurre, abra /etc/ld.so.conf, agregue la ubicación de las
librerías recientemente instaladas y guarde el archivo y ejecute ldconfig para hacer saber a su
sistema acerca de esta ubicación. Después de eso, no debería tener más problemas para ejecutar
./configure en los archivos-ui de Xine. Una vez todo configurado y compilado, inícielo ejecutando el
comando xine. Esto abre una ventana y un panel como el de un reproductor de CD .
9.2
Instalación y Configuración de Linux
9.2.1
Requisitos de hardware para Linux
Al igual que la instalación de Windows 2000 Professional, la instalación de Linux pasará por una
cantidad de pasos hasta completarse. El proceso de arranque de Linux es similar al proceso de
arranque de Windows 2000. Los nombres de archivos son diferentes pero estos archivos
esencialmente llevan a cabo las mismas operaciones en ambos sistemas. Linux tiene, por otro
240
lado, algunos pasos de instalación que no se encuentran en Windows. Por ejemplo, Linux tiene
como objetivo principal ser un sistema operativo de red (NOS) basado en servidor. Existe la opción
de hacer una instalación en una estación de trabajo o en un servidor.
El siguiente paso es examinar el hardware del sistema para determinar si realmente podrá ejecutar
el OS una vez instalado. Algunos de los requisitos básicos de hardware para una instalación de
Linux exitosa incluyen un procesador compatible con Intel. Linux puede instalarse en todos los
procesadores clase Pentium. Todavía hay sistemas ejecutándose en procesadores 80386 y 80486,
no obstante, esto no se recomienda. Se requerirán un diskette o un CD-ROM y una unidad de disco
rígido con al menos 900 MB de espacio libre. El requisito mínimo de RAM es de 16 MB, pero se
prefiere un mínimo de 64 MB.
En comparación a una instalación de Windows típica, siempre es importante probar y verificar la
compatibilidad del hardware con la distribución de Linux que esté instalando. Linux se ejecuta
exitosamente en la mayoría de las computadoras, laptops y plataformas. Hay varios proyectos en
camino para llevar Linux a otras configuraciones de hardware. Una vista general de las CPUs
basadas en PC incluye:
·
·
·
·
·
·
·
Intel/AMD/Cyrix 386SX/DX/SL/DXL/SLC
Intel/AMD/Cyrix 486SX/DX/SL/SX2/DX2/DX4
AMD K5, K6, K6-2, K6-3 and K7/Athlon
Cyrix 6x86, 6x86MX
Intel Pentium, Pentium Pro, Pentium II (incluyendo la serie Celeron) y Pentium III
IDT WinChip C6
Multiprocesamiento Simétrico (varias CPUs)
Siga el vínculo a continuación para encontrar una lista más abarcativa de hardware compatible con
su distribución de Linux
9.2
Instalación y Configuración de Linux
9.2.2
Inicio de la instalación
En este curso y en el laboratorio acompañante, los alumnos estarán instalando Linux desde un CD.
La instalación se iniciará una vez que se inserta el CD y el BIOS está configurado para arrancar
desde el CD. Seleccione las configuraciones para el sistema, por ejemplo, el idioma a utilizarse. A
continuación, elija qué tipo de mouse y teclado se están usando. Se pedirá al instalador que elija el
tipo de instalación. Las opciones serán la instalación de un servidor o una estación de trabajo. La
GUI del Sistema X Window no estará disponible si se elige la instalación del servidor. La instalación
del servidor instalará las diversas herramientas necesarias para un servidor como herramientas de
archivos y servidor de web. El siguiente paso es particionar la unidad de disco rígido.
241
NOTA:
Si se selecciona la instalación de servidor, todos los datos se borrarán del sistema y la unidad debe
particionarse y reformatearse de acuerdo a ello. Cuando se selecciona la instalación para estación
de trabajo, puede instalarse otro sistema operativo, no obstante, Linux tendrá que estar en su
propia partición separada.
Una vez particionada la unidad, deben establecerse las configuraciones de red y la zona horaria
seleccionada. En este punto se establecen la cuenta y contraseña raíz así como otras cuentas que
necesitan instalarse en el sistema. Por razones de seguridad, la cuenta raíz no debería usarse. Se
recomienda que se cree una segunda cuenta para administrar Linux. En los laboratorios
acompañantes, se usará la cuenta raíz, no obstante, esto no deberá hacerse en un entorno de
trabajo. Para la instalación en un servidor el siguiente paso es instalar el sistema operativo. Si se
selecciona la instalación en estación de trabajo, se pedirá al instalador configurar primero el
Entorno X-Windows antes de comenzar la instalación. Este entorno incluye cosas como la
selección de las configuraciones de monitor y placa de video apropiadas, así como la resolución y
configuración de colores del sistema. Una vez completo el proceso de instalación, habrá un prompt
para crear discos de inicio. Una vez hecho esto, el proceso de instalación está completo.
9.2
Instalación y Configuración de Linux
9.2.3
Configuración de seguridad apropiada
Algunas de las configuraciones de seguridad más importantes a elegir son la cuenta de usuario, la
cuenta raíz, y las contraseñas. El Capítulo 10 trata en detalle cómo crear cuentas de usuario en
Linux. Esta sección se concentra en los aspectos de seguridad importantes para el proceso de
instalación. Los usuarios familiarizados con Windows 2000 saben que para poder iniciar sesión en
un sistema debe haber una cuenta de usuario almacenada localmente en la computadora o en el
Directorio Activo. Linux funciona de la misma manera, en el hecho de que las cuentas de usuario
son la principal característica de seguridad que controla quién puede iniciar sesión en el sistema.
Linux usa la cuenta raíz, que es similar a la cuenta administradora en Windows 2000. La cuenta
raíz tiene privilegios para llevar a cabo cualquier tarea en el sistema incluyendo el agregado y
borrado de otras cuentas de usuario.
Durante el proceso de instalación habrá un prompt para crear la contraseña raíz, y luego una
opción para crear cuentas de usuario que han de agregarse al sistema. No obstante, las cuentas de
usuario no necesitan agregarse en este punto. Esto puede hacerse después y se tratará en el
Capítulo 10. Si hay un único usuario, el administrador, también deberá crearse una cuenta de
usuario separada. Pueden surgir problemas de seguridad si se usa solamente la cuenta raíz. Ver
Figura .
242
Opciones de la Cuenta Raíz
La cuenta Raíz en Linux también se denomina cuenta del superusuario o del administrador del
sistema. Esta cuenta es obligatoria, durante la instalación se pedirá al usuario que introduzca la
contraseña dos veces para proteger contra errores de tipeo. Ver Figura . Corel Linux es la única
distribución importante que no requiere que la cuenta Raíz se configura durante la instalación. La
mayoría de las distribuciones de Linux tienen reglas concernientes a la longitud y el contenido de la
contraseña. Las reglas variarán dependiendo de la distribución. Las contraseñas deben tener al
menos cuatro a ocho caracteres de largo y no pueden ser términos comunes hallados en el
diccionario. Algunas distribuciones tienen otras reglas, como que al menos uno o dos caracteres no
sean letras, sino números o un signo de puntuación por ejemplo.
Definición de las Cuentas de Usuario durante la Instalación
Hay ventajas y desventajas en la creación de cuentas de usuario durante la instalación.
Comprenderlas ayudará a cualquier administrador a determinar qué es mejor basándose en las
implementaciones de seguridad que se han planeado. Se enunció antes que al menos una cuenta
de usuario deberá crearse durante la instalación para que el administrador del sistema use, incluso
si nadie más está usando o accediendo al sistema. La desventaja de crear cuentas de usuario
durante la instalacion es que muchas de las opciones como configurar directorios home no
estándar, expiración de la cuenta, y definición de políticas de grupo, no están disponibles.
Opciones de Contraseña
Aunque no configurable durante el proceso de instalación, es importante tratar las contraseñas
sombra en este punto. Éstas son valiosas para la seguridad de un sistema Linux. La mayoría de las
distribuciones de Linux usan métodos de codificación por contraseña MD5 o DES. Algunas usan
MD5 por defecto porque es más nuevo y tiene mejor seguridad que DES. Por lo común, los
sistemas Linux y UNIX almacenan la información sobre cuentas y las contraseñas en forma cifrada
en un archivo llamado /etc/passwd. Este archivo necesita ser accedido por todos los usuarios
porque diversas otras herramientas necesitan acceder a este archivo para información no
relacionada con contraseñas. Usando contraseñas sombra las contraseñas se almacenan en un
archivo diferente que es inaccesible para los usuarios normales, lo cual mejora mucho la seguridad.
Configuración de Límites en los Inicios de Sesión, Uso de la Memoria y Procesos
Tampoco configurable durante la instalación pero importante de tratar son las configuraciones de
límites a los inicios de sesión, el uso de la memoria y los procesos. Cuando se está configurando
un sistema multi-usuario como Linux, debe prestarse mucha atención al uso de la memoria y los
procesos. Por ejemplo, un proceso errante podría consumir toda la memoria del sistema disponible
y/o CPU en el sistema. Cuando esto ocurre, el desempeño en ese sistema puede degradarse
resultando en cuelgues del sistema, pantallas congeladas y muchas otras consecuencias
desagradables.
243
Como administrador, es importante aprender las herramientas y utilidades en Linux que pueden
usarse para resolver estos tipos de problemas. El archivo limits.conf , ubicado en /etc/security
proporciona la capacidad para especificar límites de nivel de usuario y grupo a ciertos tipos de
recursos del sistema, incluyendo la memoria. Los límites configurados en este archivo se
establecen por usuario y grupo.
La sintaxis básica para limits.conf consiste en líneas individuales con valores de los siguientes
tipos: (dominio) (tipo) (elemento) (valor) donde dominio es el usuario o grupo, tipo se refiere a un
límite de hard o soft, elemento se refiere al recurso que se está limitando y valor se refiere al valor
asociado al límite establecido. Por ejemplo, agregar la siguiente línea a este archivo coloca un
límite en hard sobre la prioridad según la cual los trabajos se programan para un usuario llamado
'Linux_User'.
Linux_User hard priority 19
Para establecer un máximo de tiempo de CPU de 10 minutos para Linux_User, establezca el
siguiente valor:
Linux_User hard cpu 10
También es posible establecer limitaciones de inicios de sesión con limits.conf. Para establecer un
límite de 3 inicios de sesión fallidos para un grupo llamado "remote_users", establezca el siguiente
valor:
@Remote_Users - maxlogins3
Establecer límites en procesos errantes por usuario puede limitar el impacto potencial y las
vulnerabilidades de muchos usuarios que iniciaron sesión o conectados a un sistema multi-usuario.
Esto puede hacerse configurando el comando ulimit en /etc/profile.
Para establecer un límite en la cantidad máxima de memoria disponible para un proceso dado, a un
valor menor que la cantidad total de memoria en el sistema que tiene 1 GB de memoria real y 500
MB de memoria virtual, se establecerían los siguientes valores en /etc/profile:
ulimit -S -m 1000000
ulimit -S -v 500000
244
Con este valor configurado, el sistema abortará cualquier proceso que intente tomar más recursos
que los que se han establecido como límite.
9.2
Instalación y Configuración de Linux
9.2.4
Configuración de red
Durante la instalación, se mostrará la opción de establecer las configuraciones y servicios de red
del cliente. Esto puede hacerse después de la instalación pero se recomienda hacerlo durante la
instalación. Hay algunas funciones que no pueden establecerse durante la instalación, no obstante.
Al seleccionar la opción para configurar la red durante el proceso de instalación, la primera opción
que será necesario tomar es, hacer que el sistema auto-detecte qué tipo de conexión de red se
está usando. Opciones para tipos de conexiones de red incluyen una conexión normal de módem o
una conexión LAN.
Como en el paso anterior, el proceso de instalación auto-detectará qué tipo de mouse o teclado
está conectado. Lo mismo es cierto del tipo de placa de red que está instalada en el sistema.
Normalmente el sistema detectará la placa de red. Los pasos para hacer esto pueden ser
levemente diferentes dependiendo de la distribución de Linux que se está instalando. En este punto
se mostrará un prompt para configurar manualmente la red, como la dirección IP, máscara de
subred, nombre de host, servidor DNS, y gateway por defecto. La otra opción es seleccionar
DHCP. Si el sistema está conectado a un servidor DHCP, proporcionará la información
automáticamente. La pantalla de configuración de DHCP se muestra en la Figura .
245
Algunas distribuciones tendrán otras configuraciones de red que puede ser necesario configurar en
este momento dependiendo de en qué tipo de red se encuentra el sistema. Un ejemplo sería un
servidor proxy. Estos servidores protegen a una red limitando el acceso a la red y fuera de la
misma. Si la red usa un servidor proxy, introduzca la dirección IP de este servidor en este punto
también.
Es igualmente importante poder configurar manualmente TCP/IP para una placa de interfaz de red
(NIC) una vez que la instalación está completa. En todo momento se hacen cambios a la red.
Cuando se agregan, cambian o actualizan dispositivos, a menudo es necesario reconfigurar las
configuraciones TCP/IP para que ese dispositivo se conecte nuevamente a la red. También es
importante para detectar problemas, poder ser capaz de configurar una NIC manualmente.
La utilidad ifconfig es la herramienta usada para configurar la placa de red. Es importante saber que
al usar ifconfig para configurar sus dispositivos de red debe guardar las configuraciones o éstas no
permanecerán una vez que se reinicia el sistema. Para asignar a la interfaz eth0 la dirección IP de
192.168.1.50 use el siguiente comando:
#ifconfig eth0 192.168.1.50 netmask 255.255.255.0
Para asignar el gateway por defecto para 192.168.1.1 use el comando:
#route add default gw 192.168.1.1
Para detener todos los dispositivos de red manualmente en su sistema, use el siguiente comando:
#/etc/rc.d/init.d/network stop
Para iniciar todos los dispositivos de red manualmente en su sistema, use el siguiente comando:
#/etc/rc.d/init.d/network start
9.2
Instalación y Configuración de Linux
9.2.5
Otras configuraciones
En este punto, la mayor parte del proceso de instalación inicial deberá estar completo a excepción
de algunas configuraciones finales. Éstas incluyen elementos como Zona Horaria, Impresora,
Configuración de Servicio y Opciones de Arranque.
Configuración de la Zona Horaria
Nuevamente, las especificaciones para configurar la zona horaria variarán dependiendo de qué
distribución de Linux se está instalando. Cuando se alcanza este punto en la instalación, aparecerá
una pantalla que permitirá la selección de en qué zona horaria está ubicado el sistema. La Figura
muestra la página de configuración de la zona horaria para Red Hat 7.2. Desde esta pantalla el
usuario puede desplazarse por las diferentes zonas horarias y seleccionar la que corresponda a la
ubicación.
246
Algunas distribuciones tienen la opción de configurar el reloj según la Hora del Meridiano de
Greenwich (GMT), la hora en Greenwich, Inglaterra. En sistemas UNIX y Linux tradicionales, esto
se conoce como Hora Universal Coordinada (UTC), que se ajusta para horarios de verano. Los
sistemas que tienen esta opción configuran su hora local basándose en la hora de UTC, y luego
almacenan esta información en la memoria o en sus relojes de hardware. Cuando el sistema
arranca, lee esta información y luego configura el tiempo local en la zona horaria que se seleccionó
en la hora UTC que se almacenó en la memoria. Si Linux es el único sistema operativo de la
computadora, y la distribución instalada tiene esta opción, seleccione sí cuando se le pregunte si el
reloj se pone en hora según GMT. Esto reducirá mucho las posibilidades de que la hora se
desajuste durante el horario de verano. Si el sistema tiene arranque dual con otro OS como
Windows por ejemplo, no ponga en hora el reloj según GMT.
Configuración de Impresoras
Configurar un sistema Linux para una impresora se trata en detalle en posteriores capítulos. Esta
sección trata cómo hacerlo durante el proceso de instalación. Tenga en cuenta que no todas las
distribuciones de Linux proporcionarán esta opción. Linux Mandrake proporciona la capacidad de
instalar una impresora durante la instalación. Hay dos sistemas de impresión que proporciona
Mandrake, Sistema de Impresión Común de UNIX (CUPS) o el sistema de impresión lpr. El
programa de instalación instalará paquetes adicionales del CD después de seleccionar el sistema
de impresión. El programa de instalación requerirá información adicional, como el tipo de conexión,
ya sea una impresora local, un servidor de impresión remoto UNIX o Linux, o un servidor de
impresión remoto Windows. Los detalles de la conexión, como el puerto de la impresora también
necesitarán especificarse. Si la impresora está ubicada en un servidor de impresión remoto,
especifique el nombre del servidor de impresión, nombre de la cola, y en algunos casos, un nombre
de usuario y contraseña. Finalmente, será necesario definir el tipo de impresora. Una lista de
hardware se mostrará en pantalla. Seleccione una de las opciones.
Configuración de Servicios
Los sistemas Linux tendrán diferentes servicios ejecutándose en ellos. Si el sistema va a ser una
estación de trabajo, servidor Web, o servidor de correo, será necesario instalar los servicios
apropiados en el sistema. Algunos de estos servicios pueden instalarse durante la instalación.
Cuando esta pantalla aparece durante el proceso de instalación, tilde los recuadros apropiados.
Los servicios seleccionados se instalarán ahora.
Opciones de Arranque
Seleccionar y configurar el sistema para que use el cargador de arranque apropiado es otra parte
del proceso de instalación de Linux. Linux usa uno de los siguientes dos programas: Linux Loader
(LILO) o Grand Unified Bootloader (GRUB). La Figura proporciona un ejemplo de la pantalla de
instalación que se usa para seleccionar el cargador de arranque. Estos dos programas arrancan un
sistema Linux desde el disco rígido. La mayoría de las distribuciones de Linux usan LILO y algunas
247
ofrecen GRUB como alternativa. Después de seleccionar qué cargador de arranque usar, habrá
una oportunidad de ajustar algunas de las características. Algunas de estas opciones son:
·
·
·
·
·
·
·
La mayoría de las distribuciones permitirán la selección de si usar un menú gráfico o
basado en texto.
LILO almacena su código de tiempo de arranque en el dispositivo de arranque. Si Linux se
instala en una unidad EIDE, el archivo se localizará en /dev/hda. Si Linux se instala en una
unidad SCSI, se almacenará en /dev/sda. Esto está bien si Linux es el único sistema
operativo instalado en la unidad. Si este sistema es de arranque dual, será necesario
ubicar LILO o GRUB en la partición de arranque de Linux.
El retraso que usa LILO antes del arranque puede ajustarse aquí también.
Hay también una opción de arranque compacto que puede seleccionarse. Esto acelerará
los tiempos de arranque.
Es posible configurar la placa de video para el cargador de arranque. Si no se la configura,
se usará la resolución por defecto, no obstante, es posible cambiar la resolución para el
cargador de arranque.
Linux almacena los archivos temporales en el directorio /tmp. Es posible configurar el
cargador de arranque para limpiar este directorio cada vez que se inicia Linux.
En algunos casos, Linux no detectará la cantidad apropiada de RAM. Lo cual significa que
Linux podría solamente detectar 64 MB de RAM cuando en realidad hay 128 MB
instalados. Una precaución a tomar contra esto es introducir manualmente la cantidad de
RAM instalada.
Cuando todas las configuraciones se han introducido, el programa de instalación procederá
al siguiente paso. Mientras esto ocurre, el sistema presentará un resumen de las opciones
del cargador de arranque. Estas opciones variarán dependiendo de las configuraciones que
se introdujeron y de si el sistema está configurado para arranque dual con otro sistema
operativo.
9.3
X Server
9.3.1
Chipset de la placa de video
En este punto, Linux deberá estar completamente instalado y operativo. Para obtener toda la
funcionalidad del sistema Linux, familiarícese con cómo instalar y configurar el X server del
sistema. Esto es así especialmente si se usa la interfaz GUI. La instalación inicial es solamente la
primera parte de instalar un sistema operativo. Hay también otras configuraciones que será
necesario completar una vez que se han instalado el sistema operativo. La importancia de aprender
cómo instalar y configurar X server no puede subestimarse. Primero, es el único punto que
248
presentará la mayoría de los problemas. Otras razones son que los usuarios desearán poder
ajustar y modificar el entorno del usuario según sus propias preferencias, como el tamaño de la
pantalla o la resolución. Si en algún punto la placa de video del sistema se actualiza, es importante
el conocimiento de cómo establecer las configuraciones apropiadas para que la placa funcione con
el sistema Linux.
Averiguar qué chipset usa la placa de video es importante. Puede ser difícil encontrar qué chipset
tiene la placa de video, a menos que se esté instalando una placa nueva y la caja o manual que
vienen con la placa puedan verse. Lo más probable es que la placa de video esté instalada en el
sistema, haciendo difícil saber cuál es su chipset.
Hay otras maneras de obtener esta información. La primera es cuando el sistema detecta
automáticamente la placa de video. Otra forma es ejecutar la herramienta de configuración X
después de la instalación. Otro medio de averiguar el chipset de la placa de video es leyendo la
documentación del producto. Éste no siempre es el mejor método, no todos los fabricantes de
placas de video dirán cuál es su chipset y puede ser difícil de averiguar. La Figura muestra un
ejemplo de las propiedades de una placa de gráficos en Linux. A veces el chipset de la placa de
video aparecerá nombrado allí. En último lugar, y probablemente lo que lleva menos tiempo es
sacar la placa de video de la computadora y examinarla. Algunas placas de video tendrán el chipset
nombrado en la placa en sí.
Algunas otras cosas importantes a tener en cuenta al buscar la versión del chipset de una placa de
video es que no siempre es consistente. Esto se debe a que el chipset a menudo tiene más de un
nombre. El nombre del fabricante de la placa de video podría hallarse en lugar de la versión del
chipset. Cuando esto ocurre, es una buena idea buscar los controladores bajo los dos nombres
encontrados. Cuando se encuentra el nombre del fabricante, sea cuidadoso, porque algunos
fabricantes producen la placa mientras que otro produce el chipset. Por lo tanto, cuando se
encuentra el nombre del fabricante de la placa, no necesariamente significa que se halló el nombre
del fabricante del chipset.
9.3
X Server
9.3.2
Opciones del X server
Xfree86 (http://www.xfree86.org) es el X server gratuito que viene con cada distribución importante
que soporte una interfaz GUI. Es una buena idea visitar este sitio porque contiene información útil
respecto a los chipsets de la placa de video.
La última versión del X server es la versión 4.0.3. La mayoría de las distribuciones Linux que se
entregaron después del año 2001 vienen con la versión 4.0.X de Xfree86. Hay algunos problemas
249
de compatibilidad que esta nueva versión tiene con algunos chipsets de placa de video. Todavía
hay algunos chipsets que no son soportados en la última versión. La versión anterior de Xfree86
era la versión 3.3.X. Esta versión es la que debe usarse si surge cualquier problema de
compatibilidad con los chipsets de la placa de video. No obstante, si se usa la versión más antigua
de X server, los programas y librerías de soporte de la versión 4.0.X aún pueden usarse.
Una buena práctica al tratar con problemas de placas de video no soportadas es verificar el sitio
web del fabricante para ver si hay los controladores apropiados. Aunque los controladores
apropiados pueden no haber sido enviados con la placa de video, los fabricantes tendrán los
controladores disponibles en su sitio web. Con la creciente popularidad de Linux, muchos de los
fabricantes han hecho controladores disponibles que serán soportados por Xfree86. Esto no quiere
decir que todos los fabricantes tendrán los controladores soportados sino que vale la pena verificar.
Otra razón para verificar en el sitio web del fabricante es que muchas placas de video de hoy tienen
características de aceleración. Para poder usar estas características de aceleración el controlador
apropiado podría tener que ser obtenido en el sitio web del fabricante. Haciendo esto, debería
verse una mejora sustancial en el desempeño de la placa de video.
En algunos casos Xfree86 no soportará la placa de video en absoluto. Esto es así incluso después
de dar todos los pasos mencionados anteriormente. En el caso de que esto ocurra hay todavía
otras medidas que tomar. La primera opción podría ser usar el controlador del buffer de frames de
Xfree86. El Kernel Linux tiene algunos controladores de placa de video que pueden usarse. No
obstante, el kernel debe incluir soporte a buffer de frames para la placa de video instalada. Otro
enfoque a seguir es no usar Xfree86 sino un X server comercial de terceros. Algunos ejemplos son
Xi Graphics (http://www.xig.com) y ATI (http://www.ati.com/support/faq/linux.html). Uno de estos X
servers comerciales podría incluir soporte para la placa de video. Finalmente, si la placa no es
soportada en absoluto por Xfree86, reemplace la placa de video por otra que sea soportada.
9.3
X Server
9.3.3
Configuración de X server
La instalación y configuración real de X server no es tan difícil como ha sido anteriormente puesto
que muchas de las principales distribuciones ahora soportan una mucho más amplia variedad de
hardware. La forma más fácil de instalar X server es hacerlo durante la instalación del sistema
operativo. Éste no siempre es el caso y a veces esto se hará después del proceso de instalación.
Instalar Xfree86 es solamente una cuestión de usar el administrador de paquetes del sistema para
instalar el paquete correcto. Tenga en cuenta que X server viene con muchos paquetes. Solamente
uno de estos paquetes contendrá al servidor real, los otros paquetes serán las librerías de soporte,
fuentes, utilidades, etcétera.
Dependiendo de la distribución que se instala, el nombre del paquete puede variar, pero tendrá el
nombre Xfree86 en él. El nombre debería tener un aspecto como XFree86-server o xserverxfree86. Nuevamente, dependiendo de la distribución de Linux que se esté usando, XFree86 se
instalará usando RPMs o Paquetes Debian. Si la distribución está usando RPMs el comando para
instalar X server tendrá el siguiente aspecto:
# rpm -Uvh XFree86-server-4.0.2-11.i386.rpm
Si la distribución usada usa paquetes Debian entonces el comando que se introduce en la línea de
comandos tendrá el siguiente aspecto:
250
# dpkg -i xserver-xfree86_4.0.2-7_i386.deb
Una vez instalado el paquete, se instalará el X server genérico, XFree86. Los archivos del server se
almacenan en /usr/X11R6/bin. Los otros archivos que requiere X server son los módulos del
controlador, que se almacenan en /usr/X11R6/lib/modules/drivers.
Configurar X server se hará de manera diferente dependiendo de qué versión de X server se
instaló. Este curso discutirá cómo configurar XFree86, ya que se trata de una de las versiones más
usadas. El archivo de configuración de XFree86 se llama XF86Config y está ubicado en el
directorio /etc o /etc/X11. La Figura proporciona un ejemplo del archivo XF86Config.
En la siguiente sección se trata en más detalle cómo configurar los diversos hardware para X
server. Junto con la configuración del servidor real, también será necesario proporcionar
información para dispositivos de entrada como el mouse, teclado, placa de video y monitor.
Diferentes Métodos para Configurar
Como sucede con la mayoría de las configuraciones Linux, hay dos formas de configurar X server.
Una forma es usar las herramientas de configuración gráficas, que se usan para hacer los cambios
necesarios, luego el sistema operativo automáticamente escribe estos cambios en el archivo de
texto XF86Config. El archivo XF86Config es un archivo de texto que puede editarse manualmente.
Esto requiere usar un editor de texto para abrir el archivo y hacer los cambios manualmente. A
menos que el usuario sea experimentado en el uso de un editor de texto, ésta no es la forma
recomendada. Cualquier error que se cometa podría hacer inoperable al X server. Este método se
utiliza usualmente para ajustar una configuración funcional para obtener mejor desempeño y no
para configurar el X server inicialmente. Nuevamente, esto no debería intentarse a menos que el
usuario sea experimentado en hacerlo. Independientemente de qué método se use, el proceso
usualmente involucrará hacer un cambio, probarlo y repetir este proceso hasta obtener los
resultados correctos.
Prueba de la Configuración
Cuando se hace cualquier tipo de configuración, también es necesario probarla. Como se mencionó
antes, esto podría ser un proceso repetitivo que puede llevar probar la configuración algunas veces
antes de que esté correcta. Probar la configuración del X server necesita hacerse de manera
específica. Una forma de probar la configuración es reiniciar el sistema para ver si las
modificaciones están presentes. Esto puede consumir mucho tiempo y es innecesario.
La forma recomendada de probar la configuración de X server es cambiar de niveles de ejecución.
251
Ejecutar el nivel 5 iniciará el X server automáticamente cuando se inicia el sistema. Cambiar el nivel
de ejecución 3 cerrará la sesión X que se lanzó durante el inicio. Para cambiar al nivel 3 use el
comando telinit 3.
Después de cambiar a nivel de ejecución 3 la sesión de X Window terminará y el sistema pasará a
modo de texto con un prompt de inicio de sesión. A partir de aquí, inicie sesión y configure X server
manualmente. El comando init5 también puede usarse para iniciar la GUI y hacer cambios en las
configuraciones usando una herramienta de configuración. Luego, reinicie la GUI usando el
procedimiento recién explicado. Si los resultados son buenos, salga de la GUI. En la línea de
comandos tipee telinit 5 para pasar de nuevo al nivel de ejecución 5. Esto lanzará la GUI al iniciar.
Si los resultados no son los deseados, repita los pasos más arriba hasta obtener los resultados
deseados.
XFree86
El X server, por sí mismo, puede usarse para hacer modificaciones en el entorno GUI. Use el
comando XFree86 -configure para generar un archivo llamado /root/XF86config.new. Este archivo
se usa para hacer modificaciones manuales en el entorno X server en modo texto.
Xconfigurator
Esta herramienta puede usarse en modo texto o en modo GUI. Depende de desde qué modo se
lance. Pasa a través de una serie de menúes que permite elegir las configuraciones apropiadas. No
obstante, lo hace en un order establecido igual que xf86config. Si se cometen errores, será
necesario pasar por los menúes una segunda vez. Un ejemplo de la pantalla de Xconfigurator se
muestra en la Figura .
Xf86cfg
Esta herramienta puede usarse una vez que la GUI está operativa. Esta herramienta es similar a
XF86Setup, no obstante, la interfaz del usuario funciona de manera un tanto diferente. La interfaz
de la herramienta xf86cfg tiene imágenes del diferente hardware conectado al sistema. Hacer clic
en el hardware específico que necesita configurarse mostrará los menúes que se usan para hacer
ajustes.
Algunas directrices a seguir al usar estas herramientas es usar el Xconfigurator al configurar
un sistema por primera vez. Esto es así porque la configuración general puede establecerse
fácilmente con esta herramienta. Luego, una vez que X se configuró inicialmente, use
XF86Setup para hacer ajustes a la GUI.
252
9.3
X Server
9.3.4
Configuraciones de hardware
Se mencionó antes que los dispositivos de entrada y el hardware que interactúa con el sistema X
Window y el X server necesita configurarse apropiadamente. Las herramientas usadas para ello
también se han tratado. Algunos de los principales dispositivos de hardware que es necesario
configurar con el X server son el teclado, el mouse, el monitor, y la placa de video. Si cualquiera de
estos dispositivos no está configurado correctamente, X server no operará según su desempeño
óptimo o puede no funcionar en absoluto.
Teclado
No hay muchas configuraciones que necesiten establecerse o cambiarse para el teclado. Las
configuraciones por defecto funcionan bien. Hay una sola configuración que debería cambiarse no
obstante. Ésta es la función AutoRepetición. Al mantener presionada una tecla en el teclado, el
carácter se repetirá continuamente. Esta función puede ocasionar problemas y ser molesta en
ocasiones. Es una buena idea inhabilitar esta función. Esto puede hacerse usando una de las
herramientas de la GUI. Editar la línea AutoRepeat en el archivo de configuración puede cambiarlo.
Cambiar los valores de retraso y velocidad cambiará la velocidad a la cual las teclas se repiten
cuando se presionan en el teclado. El valor de retraso es el tiempo, en milisegundos, que el
sistema esperará hasta que la tecla se repita. La velocidad es el intervalo según el cual la tecla se
repite una vez que el sistema comienza a repetirla. Un ejemplo de este archivo de configuración se
muestra en la Figura .
Otra importante configuración de teclado es el modelo y disposición del mismo. Estos valores se
establecen durante la instalación y usualmente no es necesario cambiarlos. También podría haber
una instancia en la cual la disposición del idioma del teclado necesite cambiarse. Esto podría
ocurrir si algún otro usuario estuviera usando el sistema cuyo idioma nativo no es el de la
configuración actual del teclado.
Mouse
La sección del archivo XF86Config que controla las configuraciones del mouse es la sección
InputDevice de la versión 4.0.X, que se muestra en la Figura . Las configuraciones para mouse
se denominan configuraciones de Puntero [Pointer] en la versión 3.3.X. Estas configuraciones se
establecerán durante la instalación y no debería ser necesario cambiarlas. Algunas áreas
importantes a notar en la sección InputDevice es la sección Protocolo [Protocol]. Ésta es la porción
del archivo que indica qué tipo de mouse está conectado al sistema, USB, PS/2, serial, Microsoft,
Logitech, etcétera. La sección Dispositivo [Device] de este archivo muestra el archivo a la que el
mouse está asociado. Si el mouse es un PS/2 el nombre del archivo será /dev/psaux,
253
/dev/usbmouse para un mouse USB, y /dev/ttyS0 o /dev/ttyS1 para un mouse serial.
Monitor
Las configuraciones del monitor pueden ser las más importantes de estas configuraciones. Si no se
establecen exactamente, podría no funcionar y no habría pantalla. La sección Monitor del archivo
XF86Config contiene las configuraciones para el monitor que el sistema está usando y se muestra
en la Figura . La mayoría de estas configuraciones se establecerán durante la instalación.
Algunas de las líneas importantes de este archivo son las configuraciones de Identifier, HorizSync,
VertRefresh, y ModelName.
La línea Identificador [Identifier] no contiene ninguna configuración crucial que afecte al monitor. La
línea ModelName está ahí como identificador que puede editarse para contener cualquier cosa.
Esto es para referencia del administrador, para que sepa qué tipo de modelo es el monitor.
Cambiar este valor no tendrá ningún efecto en el sistema.
254
9.4
Configuración y Tareas Post-Instalación
9.4.1
Post-instalación de aplicaciones y programas
Como en la instalación del OS Windows, habrá algunos agregados post-instalación que podrían ser
necesarios para ejecutar servicios específicos. Por ejemplo, si se usa Linux Red-Hat 7.X, el archivo
linuxconf no se agrega al sistema por defecto. Un ejemplo de la herramienta linuxconf se muestra
en la Figura . Este archivo puede agregarse una vez completa la instalación cargándolo desde el
CD de instalación. Las últimas fuentes lanzadas para cliente de e-mail como Elm, por ejemplo,
deberá cargarse antes de configurar el sistema para e-mail. Hay tres tipos principales de
administradores de paquetes con los que un administrador Linux necesita familiarizarse. El
Administrador de Paquetes Red Hat (RPM), los Paquetes Debian, y Tarballs se usan para instalar y
eliminar aplicaciones y programas en sistemas Linux una vez completo el proceso de instalación.
Tarballs son archivos que se recolectan juntos usando el programa tar.
Administrador de Paquetes Red Hat (RPM)
RPM es el tipo más popular de administradores de paquetes. Aunque creado por Red Hat, RPM es
soportado por prácticamente todas las distribuciones principales de Linux. RPM proporciona las
herramientas necesarias como bases de datos de paquetes que se necesitan para instalar y
eliminar programas, no obstante, no todas las aplicaciones o programas usan RPM. Algunas
aplicaciones y programas usan los paquetes Debian y algunos usan tarballs. Cada uno de los
administradores de paquetes se tratará en detalle posteriormente en esta sección. La base de
datos de paquetes es un sistema que verifica conflictos de propiedad de los archivos manteniendo
el rastro de toda la base de datos RPM de archivos una vez que son instalados en el sistema. La
base de datos del paquete se almacena en el directorio/var/lib/rpm La base de datos proporciona
funciones como las siguientes:
·
·
·
·
Información sobre el Paquete – Esto almacena toda la información acerca de un paquete
una vez instalado en el sistema. Información como fecha de fabricación, descripción, y
número de versión se copia al directorio de base de datos del paquete. Si el paquete se
elimina, la información acerca del paquete permanecerá en la base de datos.
Información sobre los Archivos – Esto guarda información sobre todos los archivos que
se instalan en el sistema usando RPM. Esto incluye poder mantener un registro de a qué
paquete pertenece un archivo específico. También mantendrá un rastreo de los permisos
de los archivos. Cualquier cambio efectuado en los archivos instalados con RPM puede
rastrearse hasta la persona que hizo los cambios.
Dependencias – Las dependencias se trataron anteriormente en este capítulo. La base de
datos es donde la información de dependencia de la instalación de un paquete será
almacenada.
Información sobre Provisión – Algunos paquetes que se instalan proporcionan funciones
255
para otros paquetes que se instalan. Un cliente de correo, por ejemplo, necesita tener un
servidor de correo para poder recuperar y enviar correo. Éste es un tipo de dependencia.
Diversidad de RPM
Red Hat lanzó el software RPM bajo la Licencia Pública General (GPL). Esto significa que aunque
RPM fue creado por Red Hat, estaba disponible para que cualquier distribución de Linux lo incluya
como parte de la misma. Por esta razón, la mayoría de las principales distribuciones de Linux
soportan RPM. Algunas distribuciones como Mandrake, Yellow Dog, TurboLinux, y LinuxPPC se
basan todas en Red Hat y usan RPM. SuSE y Caldera Linux no se basan en Red Hat y también
usan RPM. RPM proporciona compatibilidad a través de las diferentes distribuciones de manera
muy similar a XFree86.
RPM es soportado también en sistemas no Linux o UNIX. Estos sistemas no se basan en RPM
como su principal sistema de distribución de paquetes, pero aún se lo soporta y usa. RPM es
popular y diverso porque es soportado por varias CPUs. Se trató en capítulos anteriores que
determinadas distribuciones de Linux son capaces de ejecutarse solamente en determinadas
CPUs. Esto hace posible que RPM sea compatible con muchas de las distribuciones de Linux y por
qué muchas de esas distribuciones usan RPM.
Compatibilidad de RPM
RPM ha probado ser muy diverso, pero hay algunos problemas de compatibilidad que necesitan
tratarse. Algunos de estos problemas incluyen los siguientes:
·
·
·
·
·
Es importante estar seguro de que la versión de RPM usada sea la misma en ambas
distribuciones.
Un paquete RPM que está funcionando en un sistema puede no funcionar en otro. Esto
puede deberse a que los paquetes de dependencia podrían no estar instalados en uno de
los sistemas.
Si se intenta instalar un paquete que no puede reconocer el nombre del paquete de
dependencia, el paquete no funcionará. Un ejemplo es al instalar el paquete cliente samba
que depende del paquete samba común. Si la distribución que instala el paquete cliente
samba usa un nombre diferente para el paquete que no sea samba-common, el paquete no
funcionará.
Algunos paquetes pueden instalarse solamente en determinadas distribuciones.
Determinados archivos del paquete podrían ser compatibles con solamente una
distribución Linux en particular y esa distribución podría ser aquélla en el que el paquete
puede instalarse.
Los servidores Linux que tienen paquetes que contienen scripts o archivos de configuración
específicos de la distribución que están instalados en determinada carpeta por lo que se
ejecutan automáticamente.
A pesar de los problemas de compatibilidad que surgen al usar paquetes RPM en varias
distribuciones, raramente ocurren. Si hay problemas de compatibilidad, se recomienda tratar de
encontrar un paquete comparable incluido con la distribución Linux que se está usando.
Actualización de RPM
Se mencionó en la sección de compatibilidad que dos diferentes distribuciones de Linux con
diferentes versiones de RPM ejecutándose, podrían no instalar el mismo paquete en ambos
sistemas. Cuando Red Hat lance una nueva versión de RPM, los paquetes asociados con esa
versión se usarán en esa distribución. El usuario debe actualizar el sistema para que use los
nuevos paquetes. Por ejemplo, Red Hat Linux 7.0 usa la versión 4 de las utilidades de RPM, estos
paquetes de la versión 4 no pueden instalarse en sistemas con versiones anteriores de RPM.
Un problema surge al intentar actualizar a la versión más moderna de RPM. Es imposible actualizar
a la versión 4 más moderna sin tener la versión 4 instalada primero. Esto presenta un problema
para sistemas que no tienen la versión 4 instalada. La única opción es actualizar todo el sistema
operativo. Red Hat ha lanzado una actualización que permitirá una actualización desde una versión
256
anterior sin tener que actualizar el OS.
Comandos de RPM
Distribuidos junto con los CDs de instalación de Linux hay cientos de RPMs adicionales. Una vez
que la instalación de Linux está completa, estos RPMs pueden instalarse desde los CDs usando el
comando rpm Por ejemplo, elegir no instalar el programa gráfico Gimp durante la instalación de
Linux aún será posible instalando el archivo RPM desde el CD. Primero, el CD que contiene el
RPM necesita montarse, y luego navegar al directorio que contiene el comando rpm para Gimp.
Los comandos para lograr esto son los siguientes:
mount /mnt/cdrom
cd /mnt/cdrom/RedHat/RPMS
rpm –UvH gimp-1.0.4-3.i386.rpm
El comando mount /mnt/cdrom montará el CD. El comando cd /mnt/cdrom/RedHat/RPMS
es el directorio donde se ubica el RPM, y el comando rpm –UvH gimp-1.0.4-3.i386.rpm es el
nombre del paquete RPM Gimp que necesita instalarse.
Este paquete RPM puede ser confuso para alguien que lo vea por primera vez. Una vez que las
partes se separan y explican, como se muestra en la Figura el paquete RPM es más fácil de
comprender.
257
Una vez que se ha descargado un paquete, se deberá verificar si la checksum MD5 coincide con la
proporcionada en las páginas de descarga del paquete. Cada paquete tiene una checksum
individual que se puede verificar mediante el siguiente comando:
#md5sum <package>
No todos los sistemas operativos soportan el comando md5sum. En algunos OSs se llama
simplemente md5, otros no lo incluyen en absoluto. En Linux, es parte del paquete de Utilidades de
Texto de GNU, que está disponible para un amplio rango de plataformas. Se puede descargar el
código fuente del vínculo de más abajo también.
Para los paquetes RPM, no hay checksum o firma separadas. Los paquetes RPM tienen una firma
GPG incorporada y checksum MD5. Se puede verificarlas ejecutando el siguiente comando:
#rpm --checksig <package>.rpm
Administrador de Paquetes Debian
Los paquetes Debian son muy similares a los paquetes RPM. Debian contiene una base de datos
258
de paquetes que tiene las mismas funciones que la base de datos RPM, no obstante, la base de
datos Debian está almacenada en el directorio /var/lib/dpkg La diferencia entre paquetes Debian y
RPM es que no son intercambiables. Los paquetes Debian no pueden usarse en una distribución
que soporte paquetes RPM, y viceversa.
Un paquete Debian tendrá un aspecto similar al paquete RPM y se instala de manera muy similar.
Un paquete Debian tiene el siguiente aspecto:
# dpkg –i samba-common_2.0.7-3.deb
Después de recordar lo que todas estas partes significan de la sección sobre el RPM, será fácil
comprender qué representan estas partes del paquete Debian. Significan lo mismo, no obstante,
los paquetes Debian usan dpkg en lugar de RPM para identificarse.
Los paquetes Debian también usan switches que pueden colocarse al principio del comando para
especificar instrucciones al paquete. Un ejemplo es -i, se usa para instalar el paquete. Otros
ejemplos que pueden usarse son -r, que eliminará el paquete pero dejará sus archivos de
configuración. El switch -P elimina el paquete y sus archivos de configuración, y -B inhabilita los
paquetes que se basan en un paquete eliminado.
Diversidad de los Paquetes Debian
El Administrador de Paquetes Red Hat se originó en Red Hat, el Administrador de Paquetes Debian
se originó en la distribución Debian de Linux. La evolución del administrador de paquetes Debian se
dio de manera muy similar a RPM. Otras distribuciones que se basan en Debian como Storm Linux,
Corel Linux, y Libranet usan paquetes Debian. Los paquetes y distribuciones Debian no han sido
tan populares porque Debian Linux no enfatiza una instalación o herramientas de configuración
GUI, lo que lo hace difícil para el usuario inexperto. Storm y Corel Linux han agregado algunas de
estas características de GUI que los hacen más atractivos. El enfoque de Debian Linux se ha
concentrado tradicionalmente hacia los principios de fuente abierta más que las distribuciones que
se basan en los paquetes RPM.
También de manera similar a los paquetes RPM, los paquetes Debian pueden usarse a través de
varias distribuciones y con compatibles con diversas CPUs. Es raro ver un paquete Debian usado
en un sistema que no sea Linux.
Tarballs
Tarballs son por mucho el tipo más ampliamente soportado de paquete disponible con Linux.
Tarballs, como los paquetes RPM y Debian, son una colección de archivos comprimidos que
pueden descomprimirse e instalarse en un sistema Linux o UNIX. Tarballs se descomprime con la
utilidad compress o qzip. Cada distribución puede usar tarballs para instalar o eliminar aplicaciones
y programas. No obstante, tarballs no es tan avanzado como los paquetes RPM o Debian. Primero,
tarballs no mantiene una base de datos de los paquetes. Esto hace difícil eliminar programas que
se han instalado usando tarballs porque no hay una base de datos que mantenga el rastreo de
dónde están ubicados todos los archivos. Tarballs no tiene información de dependencia. Esto
puede hacer difícil determinar qué otro programa podría necesitar instalarse para que el programa
actualmente instalado funcione. Incluso puede ser difícil saber si hay problemas de dependencia.
Los paquetes RPM y Debian notificarán inmediatamente si hay problemas de dependencia.
Los paquetes tarball son identificados por medio del comando tar Originalmente tarballs se usaba
para archivar archivos en una dispositivo de backup a cinta y se conocía como "archivador de cinta"
[tape archiver]. Tarballs es un medio excelente de hacer backups y comprimir archivos en un disco
rígido. Llevar a cabo un backup mediante el comando tar e tratará en capítulos posteriores. El
comando tar e usa en conjunción con una utilidad de compresión como compress, gzip o bzip2. El
más popular de los tres es gzip. Los archivos se comprimen primero con una de estas utilidades de
compresión, y luego se archivan usando el comandotar Como resultado, el archivo tendrá dos
extensiones, como .tar.gz.Tarballs es similar a los archivos zipeados mediante la utilidad
WinZip en Windows. Un ejemplo de un paquete tarball que se está descomprimiendo e instalando
259
es el siguiente:
# tar –xvzf samba-2.0.7.tar.gz
Se mencionó anteriormente que tarballs podía usarse como mecanismo de distribución de
paquetes en cualquier distribución de Linux. No obstante, Slackware es una distribución de
Linux que principalmente usa sólo Tarballs. Slackware es la más antigua de las principales
distribuciones de Linux. Como Debian Linux, Slackware no usa una configuración o
herramientas de instalación GUI de lindo aspecto. Slackware tiende a favorecer un enfoque
más simple en lugar de usar cualquiera de las herramientas de administración de paquetes
que vienen con paquetes RPM y Debian.
9.4
Configuración y Tareas Post-Instalación
9.4.2
Creación de archivadores y cambios básicos para makefiles
gzip
Desafortunadamente, la mayoría de los programas de software que encontrará se encuentran en
formato de paquete RPM. Por lo común, estas piezas se descargan mediante FTP anónimo de
algún sitio de archivadores. El proceso de instalar software puede ir de lo extremadamente simple
hasta lo casi imposible. Todo depende de cuán bien los autores del software escribieron sus scripts
de instalación y de cuán buena es la documentación de instalación.
Los paquetes de software que se obtienen mediante FTP anónimo estarán virtualmente todos en la
forma de un archivo tar comprimido. Estos archivos pueden crearse de un par de maneras
diferentes. Por lo común, un árbol de directorio contiene archivos fuente, librerías, documentación,
ejecutables y otros archivos necesarios que se empaquetan en un archivo tar usando el programa
tar. Este archivo tar es comprimido después por lo general para ahorrar espacio.
El paquete de software probablemente tendrá una extensión al final del nombre de archivo que le
indica en qué formato se encuentra. Si el archivo termina en .gz, fue comprimido con el programa
gzip de GNU. Éste es el formato de compresión de archivos más común de los paquetes de
software de Linux. Si el nombre del archivador termina con una .Z, fue comprimido con el programa
compress. Por ejemplo, el paquete de software test.tar.gz es un archivador tar que ha sido
comprimido con gzip.
Algunos paquetes de software son bastante grandes, así que es una buena idea colocarlos en un
sistema de archivos que tenga una buena cantidad de espacio libre. Algunas personas crean un
sistema de archivos separado para fuentes y lo montan bajo un directorio, como /usr/local/src
o /src. Donde quiera que decida construir sus paquetes de software, asegúrese de que tenga el
suficiente espacio en el disco para que el software pueda compilarse exitosamente.
Ahora, puede seguir adelante y mover el paquete de software al árbol fuente que ha establecido y
descomprimirlo y expandir el archivador. Si un archivo está comprimido con gzip, se puede
descomprimirlo con el comando gzip -d. Por ejemplo, el siguiente comando expande el archivo
comprimido test.tar.gz y lo reemplaza por el archivador tar llamado test.tar.
·
gzip -d test.tar.gz
cpio
El comando cpio manipula archivos llamados archivadores cpio. Un cpio copia los archivos dentro
o fuera de un archivador tar. El archivador puede ser otro archivo en el disco, una cinta magnética,
o un pipe. Con cpio, se puede crear un nuevo archivador, extraer el contenido de un archivador
existente, hacer una lista de los contenidos del archivador, y copiar archivos de un directorio a otro.
Cuando cpio agrega un archivo no comprimdo a un archivador, lo almacena como archivo no
260
comprimido pero también almacena su atributo. Cuando un archivo con un atributo no comprimido
es extraído a un sistema de archivos NTFS (que soporta archivos no comprimidos), el archivo es
extraído como archivo no comprimido. En otros sistemas de archivos, se advierte y se extrae como
archivo comprimido. Los archivos no comprimidos de un archivador nunca se crean porque la
mayoría de las cintas, diskettes y otros medios de archivo no pueden comprenderlos. Se
recomienda que comprima cualquier archivador que contenga archivos con el atributo de no
comprimido establecido para mantener el tamaño del archivador razonable.
Las tres formas del comando mostrado abajo representan las principales funciones de cpio. Cada
llamada a cpio debe especificar una y sólo una de las siguientes opciones principales:
·
·
-i – Lee un archivador existente (creado con la opción -o) a partir de la entrada estándar.
-o Escribe un nuevo archivador a la salida estándar, usando la lista de archivos leídos a
partir de la entrada estándar. Tal lista podría se producida por los comandos ls o find. Por
ejemplo, el siguiente comando usa ls para hacer una lista con los archivos del directorio
actual, luego usa pipe para pasar esta lista como entrada para cpio. El archivador
resultante contiene el contenido de todos los archivos, y se escribe en arch.
ls . | cpio -o >arch
·
-p Copia la lista de archivos leídos desde la entrada estándar al directorio especificado. Se
puede usar esta opción para copiar árboles de archivos enteros.
Para copiar todo el sistema de archivos de un diskette al directorio actual, use:
find a: -type f | cpio -pvd .
Para archivar el directorio actual en un diskette en formato portátil:
find . -type f | cpio -ocO a:
Para recuperar un directorio a partir de un diskette archivador portátil:
cpio -icdm -I a:
Makefiles
Makefiles se usa para compilar programas y paquetes. Para instalar algunos programas es
enecesario compilar los archivos binarios y librerías. La aplicación de medios Xine es un perfecto
ejemplo de esto, que se trató previamente.
Lleva mucho tipeo compilar un programa con varios archivos fuente. Además, si se tienen las
líneas suficientes de código fuente, puede llevar mucho tiempo para el compilador realmente
compilarlas todas. Hay un programa llamado make que le permite compilar automáticamente todos
sus archivos fuente simplemente tipeando make. Esto nuevamente, se hizo para Xine antes.
Además, si solamente se han cambiado algunos de los archivos, solamente recompilará aquellos
archivos fuente que dependen de los archivos en los cuales haya hecho cambios. Por supuesto,
tiene que indicar qué archivos dependen de qué otros archivos creando un archivo llamado
Makefile.
Hay cuatro tipos básicos de sentencias en un Makefile:
·
·
Comentarios Cualquier línea que comience con un # es un comentario y será ignorado.
Macros Las macros asumen la siguiente forma:
· nombre = datos Éstos se interpretan de manera similar a las sentencias #define en
ANSI C. Todas las instancias de $(nombre) en las sentencias siguientes son
261
·
reemplazados por datos. Por ejemplo, si la siguiente macro:
· SRC = main.m Hace que una línea se interprete como: gcc main.m
Reglas explícitas Las reglas explícitas le indican a make qué archivos dependen de la
compilación de otros archivos, y los comandos requeridos para compilar un archivo en
particular. Asumen la siguiente forma:
· targetfile: sourcefiles
Esta regla de arriba dice que para crear el targetfile (archivo de destino), make
debe llevar a cabo los comandos enumerados en sourcefiles (archivos fuente). Por
ejemplo, la siguiente regla significa que para poder crear el archivo de destino
main, los archivos fuente main.m y List.h tienen que existir, y make deberá usar
el comando gcc -o main main.m List.h para crearlo.
main: main.m List.h
gcc -o main main.m List.h
·
Reglas implícitas Las reglas implícitas son iguales que las reglas explícitas, excepto que
se las enumera sin comandos. make usa los sufijos de los archivos para determinar qué
comando llevar a cabo.
9.4
Configuración y Tareas Post-Instalación
9.4.3
Instalación y reconfiguración del cargador de arranque
La instalación y configuración del Cargador de Arranque se hace inicialmente durante el proceso de
instalación. No obstante, hay ocasiones en las cuales el cargador de arranque necesitará
reconfigurarse. Por ejemplo, después de la instalación del sistema operativo un usuario podría
necesitar hacer ajustes en el tiempo que el cargador de arranque se retrasa hasta cargar el kernel
Linux. El usuario puede agregar otro sistema operativo para un arranque dual y necesitará hacer el
ajuste necesario al cargador de arranque. A menudo los archivos de configuración del cargador de
arranque necesitarán editarse para efectuar estos cambios. En otras ocasiones puede ser
necesario cambiar los cargadores de arranque. Linux proporciona más de un cargador de arranque.
GRUB y LILO son los dos cargadores de arranque principales que se usan en Linux hoy. Es un
proceso muy fácil instalar un nuevo cargador de arranque o pasar a GRUB si se usa LILO o a LILO
si se usa GRUB.
El Propósito del Cargador de Arranque
Es importante comprender el rol que el Cargador de Arranque juega en el proceso de arranque. El
Módulo 7 trata los detalles del proceso de arranque de Windows y cita el proceso de arranque de
Linux también. El proceso de arranque en Linux es muy similar al de Windows. También se trató
que LILO podía usarse para arrancar el sistema operativo Linux. Linux es capaz de usar otros
cargadores de arranque que no sean LILO. El programa cargador de arranque de Linux reside en el
Registro de Arranque Maestro (MBR) en un diskette o disco rígido. El MBR se encuentra en el
primer sector del disco y es lo que se usa para arrancar el sistema operativo. Este primer sector de
un disco rígido que controla el proceso de arranque se conoce como Sector de Arranque. En
sistemas Linux el Cargador Linux (LILO) es un programa que controla el proceso de arranque.
GRUB, OS Loader y System Commander son ejemplos de otros tipos de cargadores de arranque y
se tratarán en la siguiente sección. LILO es más complejo comparado a los que se encuentran en
otros sistemas operativos como Windows. LILO es capaz de ser configurado para arrancar uno o
varios sistemas operativos en un disco rígido. LILO puede usarse para arrancar otros sistemas
operativos que no sean Linux. No obstante, LILO debe instalarse siempre en la partición Linux
porque dañará la mayoría de sistemas de archivos no Linux. Otros cargadores de arranque Linux
incluyen los siguientes:
·
·
GRUB El GRand Unified Bootloader es el más moderno cargador de arranque para Linux.
Es en realidad el cargador de arranque por defecto para Red Hat.
OS Loader Este cargador de arranque es el cargador de arranque que se encuentra en
262
·
sistemas Windows y DOS. También se lo conoce como NTLDR. Este cargador de arranque
no puede arrancar Linux directamente pero puede arrancar un disco que contenga LILO y
por lo tanto arrancar Linux indirectamente.
System Commander Éste es un cargador de arranque muy avanzado con muchas
funciones y configuraciones avanzadas. Al igual que NTLDR, no puede arrancar Linux
directamente pero puede hacerlo indirectamente.
Configuración del Cargador de Arranque LILO
Lo primero que cualquier administrador de sistemas necesita saber acerca de la configuración del
cargador de arranque LILO es el archivo lilo.conf, que se muestra en la Figura . Éste es el archivo
que define cómo se arrancará un sistema. Cada línea de este archivo contiene información acerca
de cómo se arranca el sistema. Define desde qué partición arrancar, cuál es el OS por defecto para
arrancar si hay más de uno, y cuánto tiempo la pantalla de LILO se retrasará al arrancar. Para
reconfigurar LILO, el usuario debe tener algún conocimiento acerca de la información contenida en
este archivo y cómo hacer los cambios necesarios para reconfigurar LILO. Las secciones del
archivo lilo.conf son las siguientes:
·
·
·
·
·
boot=/dev/hda Esta sección del archivo define dónde se instalará LILO. En este caso LILO
se instalará a sí mismo en el MBR del primer disco EIDE. La porción hda indica esto. Para
cambiar la ubicación de dónde se encuentra LILO simplemente cambie esta porción del
archivo a un valor que represente otra partición de Linux.
Prompt Agregando esta línea al archivo LILO pedirá al usuario que seleccione un OS para
arrancar antes de arrancar el OS. Esta línea puede eliminarse si no se desea ningún
prompt para el usuario.
timeout=50 Esto representa el tiempo en décimas de segundo que LILO tardará hasta
arrancar el sistema operativo.
default=linux Esto define el sistema operativo por defecto que se cargará.
lba32 Agregar esta línea al archivo lilo.conf especifica que LILO puede arrancar kernels
ubicados más allá del 1024º cilindro del disco rígido.
Hay unas pocas cosas que es importante conocer acerca del cargador de arranque LILO. La
página man de lilo.conf es otro buen lugar para averiguar más acerca del archivo lilo.conf. Después
de hacer cambios al archivo lilo.conf, el comando lilo debe introducirse en el prompt de comandos
para activar los cambios que se han hecho. Es importante no olvidar este paso o el sistema
continuará usando el antiguo cargador de arranque.
Configuración de LILO para Dos Sistemas Operativos
Hay dos cosas a considerar al agregar o instalar otro sistema operativo. Primero, es una buena
idea usar LILO porque LILO puede usarse para arrancar el otro sistema operativo. La segunda
263
cuestión a considerar es que configurar LILO para Linux y un segundo OS no es tan difícil.
Requiere hacer los cambios necesarios al archivo lilo.conf que se trató en la sección anterior.
Para configurar LILO para dos sistemas operativos Linux, introduzca nueva información al archivo
lilo.conf. Este nuevo texto tendrá exactamente el mismo aspecto que el texto que ya está ahí para
el OS existente. Si el nuevo OS Linux tiene una versión de kernel diferente, la única parte de este
texto que será necesario cambiar es la línea de la imagen. Será necesario especificar también la
partición raíz correcta para el nuevo OS. El procedimiento correcto para ello puede ser un poco
complicado, pero no es tan difícil. Primero, la partición raíz del segundo sistema operativo Linux
necesita montarse dentro del sistema de archivos Linux existente, luego configurar la nueva
partición raíz para que señale al kernel del segundo sistema Linux. Esto es realmente simple. Todo
lo que se requiere es agregar la línea apropiada al archivo lilo.conf para que señale al kernel del
nuevo sistema Linux. La segunda partición raíz necesita instalarse en un directorio de la partición
del sistema existente como /linux2 por ejemplo. Luego, la línea de la imagen para el segundo OS
en lilo.conf necesita cambiarse a algo como image=/linux2/boot/bzImage-2.2.17.
Configurar LILO para otro OS además de Linux es un proceso más simple. Nuevamente, es
necesario agregar el texto apropiado al archivo lilo.conf. Agregar el parámetro other al archivo hace
esto. Por ejemplo, agregue el siguiente texto al archivo lilo.conf al configurar LILO para arranque
dual con Windows:
Other=/dev/hda3
label=windows
table=/dev/hda
Instalación de un Nuevo Cargador de Arranque
El proceso es bastante fácil cuando se usa el cargador de arranque LILO y se lo reemplaza por otro
cargador de arranque como GRUB. Primero, será necesario configurar el archivo grub.conf. Este
archivo es similar al archivo lilo.conf en que contiene la información requerida para arrancar el
sistema operativo. Este archivo ya debería existir y estar configurado con los valores por defecto
del sistema dependiendo de qué distribución se usa. Una vez que el archivo grub.conf ha sido
configurado con cualquier cambio por hacer, el usuario debe decidir dónde instalar el cargador de
arranque GRUB. Para instalar el cargador de arranque GRUB en el MBR del primer disco rígido
introduzca el siguiente comando en el prompt:
# grub-install /dev/hda
Esto habilitará el MBR para que ahora arranque usando GRUB en lugar de LILO. Ahora, vuelva a
arrancar la computadora y la pantalla de arranque de GRUB debería verse ahora.
Si el usuario está usando GRUB inicialmente y ahora desea usar el cargador de arranque LILO,
use el mismo proceso que antes, pero en cambio use el archivo lilo.conf. Luego, use el comando
lilo para escribir el nuevo MBR y hacer que el sistema arranque usando LILO.
9.4
Configuración y Tareas Post-Instalación
9.4.4
Problemas del kernel
El kernel del sistema operativo se ha mencionado algunas veces en la sección anterior. No
obstante, nunca se ha explicado completamente qué es el kernel o qué hace por el sistema. El
kernel es esencialmente el motor que hace funcionar el sistema operativo. El kernel de un sistema
operativo proporciona funciones como administración de la memoria, controladores de hardware de
bajo nivel excluyendo controladores de video X y controladores de impresora, programación de
cuándo procesos específicos obtienen acceso a la CPU, otorgación de permisos a los programas
para acceder a la red, y control de acceso al sistema de archivos de una unidad de disco rígido.
Un usuario común no usará el kernel directamente y muchos usuarios no sabrán que existe. Los
programas que están instalados interactúan con el kernel constantemente. Hay solamente unas
264
pocas razones por las cuales un administrador necesitaría preocuparse por el kernel. El
administrador debe asegurarse de que la versión del kernel esté actualizada. Si la versión es
demasiado antigua, determinados dispositivos de hardware pueden no funcionar. Luego, sería
necesario instalar una nueva versión si la que está actualmente instalada no funciona. El sistema
también debe configurarse para que arranque el kernel apropiado. Esto se trató en la sección
anterior.
Numeración del Kernel
Una versión típica del Kernel Linux podría tener un aspecto tal como Linux 2.4.3. Esto no sirve de
mucho para el usuario inexperto. No obstante, como administrador que sabe qué representa cada
uno de estos números, éstos serán de ayuda para determinar cuándo actualizar el kernel.
El primer número es el número principal. Este número no cambia porque representa un cambio
importante o significativo en el kernel. El segundo número indica si la versión es una versión
estable o experimental. Si el número es par se trata de un kernel estable, y debería ser seguro
instalarlo. Si el número es impar, está todavía en las etapas experimentales y no se recomienda
para lanzarlo o ser instalado.
El tercer número representa cualquier arreglo pequeño o menor usualmente hecho a una versión
del kernel ya estable. Esto puede hacerse cuando se arreglan bugs y tal vez cuando se agregan
controladores.
Recompilación del Kernel
A veces es necesario actualizar el kernel como cualquier programa podría necesitar actualizarse.
Instalar un paquete, como cualquier otro programa, puede hacer esto. Algunos administradores
Linux prefieren compilar su propio kernel a partir del código fuente. Compilar el kernel puede
ofrecer varias ventajas incluyendo las siguientes:
·
·
·
Optimización del kernel Optimiza el kernel para un desempeño máximo compilando el
kernel para la CPU específica del sistema.
Configuración individual de controladores Compilando manualmente el kernel,
seleccione qué controladores han de agregarse. Una base de datos de controladores
necesita instalarse.
Capacidad para aplicar patches Compilar manualmente el kernel permitirá aplicar
patches o actualizaciones.
En general, no es necesario compilar el kernel manualmente, no obstante, esto puede
ofrecer algunos beneficios adicionales.
9.4
Configuración y Tareas Post-Instalación
9.4.5
Variables del entorno
Las Variables del Entorno contienen información acerca del sistema informático que usan los
programas para obtener un informe de estado sobre la condición actual de la computadora. Las
Variables del Entorno en un sistema Linux contienen información como directorio home del usuario,
espacio en disco, nombre de host, el nombre del shell actual, o simplemente para averiguar qué
recursos están disponibles en el sistema. Los programas que están instalados contienen algunas
de sus propias variables del entorno que se usan para saber dónde están ubicados sus archivos de
265
configuración o cómo mostrar información.
Variables del Entorno Comunes de Linux
Existen muchos tipos diferentes de variables del entorno que pueden establecerse para un sistema
Linux. Para ver una lista de todas las actualmente establecidas, tipee el comando env en el
prompt. Algunas de las variables son las siguientes:
·
·
·
·
·
·
·
·
PATH Ésta es una de las variables del entorno más importantes que hay en un sistema
Linux. Esta variable contiene una lista de directorios en las que el sistema buscará
programas ejecutables cuando se introducen en el prompt de comandos.
TERM Esta variable representa el tipo de terminal actual. La variable TERM contiene
información que permite a un sistema Linux conocer qué comandos soporta la terminal.
DISPLAY Ésta es la variable que identificará la pantalla usada por el sistema X Window.
PWD Muestra el directorio de trabajo actual.
USER Ésta es una variable que es mantenida por el sistema que le permite saber qué
usuario ha iniciado sesión.
HOSTNAME Ésta se usa para mostrar el nombre de host TCP/IP actual de la
computadora.
LD_LIBRARY_PATH Las librerías se trataron anteriormente en este capítulo. Ésta es la
variable que algunos programas usan para indicar los directorios en los cuales pueden
hallarse las librerías.
PS1 Esta variable representa el prompt por defecto para el shell bash. Se usa para
identificar el shell bash de otros shells que podrían estarse ejecutando en el sistema.
Éstos son solamente algunos de los muchos perfiles de entorno que pueden configurarse en un
sistema Linux. No obstante, éstos son los más importantes y los que se usarán más a menudo. A
veces un programa que se instala después de la instalación del sistema operativo requerirá la
configuración de ciertas variables del entorno. En este caso, configúrelas en /etc/profile/ o en
cualquier archivo de configuración al que el programa pueda acceder.
Configuración de la Variable del Entorno de la Sentencia $PATH
Una de las más útiles variables del entorno a configurar tan pronto como la instalación está
completa es la variable $PATH. Esto tiene el mismo uso que configurar la variable PATH bajo DOS.
Bajo Linux también, modificar PATH agregaría estos nuevos directorios a su ruta de búsqueda por
defecto. Por ejemplo, si tiene un ejecutable en particular en un directorio en particular, entonces
agregue ese directorio a su PATH. Luego sólo tendría que tipear el nombre del ejecutable en el
prompt en lugar de la ruta absoluta para ese ejecutable.
Supongamos que acaba de instalar Netscape en una carpeta llamada /usr/local/netscape.
Para poder ejecutar este programa tendría que tipear la ruta completa en el prompt, que sería:
#/usr/local/netscape
El comando de arriba ejecutaría su programa. No obstante, tipear esto cada vez que desea lanzar
Netscape es un tanto engorroso y a menudo es imposible recordar la ruta absoluta de cada
programa. Agregue el directorio /usr/local/netscape a su sentencia $PATH, para que en la
siguiente ocasión solamente tenga que tipear 'netscape' en el prompt y no la ruta absoluta. Para
agregar este directorio a su PATH tendrá que editar su archivo .bash_profile ubicado en su
directorio home. Este archivo tendría una línea en particular qu comienza con la cadena PATH. Por
ejemplo, el archivo contendría una línea como la siguiente :
PATH=/optional/bin:$PATH: $HOME/bin
266
Para agregar el directorio /usr/local/netscape a éste tendrá que modificar esta línea de la siguiente
forma:
PATH=/usr/local/netscape: optional/bin:$PATH:$HOME/bin
Una vez que haya modificado este archivo, guárdelo y luego ejecútelo como sigue:
. $HOME/.bash_profile
Para ejecutar el script de arriba, en el prompt $ tipee un punto ' . ' deje un espacio y luego tipee
$HOME/. Una vez hecho esto presione la tecla Tab. Hacerlo reemplazará lo que haya tipeado por
la ruta a su directorio home. Una vez que esto ocurre todo lo que tiene que hacer es agregar
.bash_profile a lo que ya está presente en el prompt y finalmente presionar <Enter>
Al ejecutar el script no vería ningún mensaje en la salida, pero luego podría tipear simplemente
'netscape' en el prompt para ejecutar el programa.
9.4
Configuración y Tareas Post-Instalación
9.4.6
Verificación del funcionamiento y desempeño apropiados de las aplicaciones
La etapa final del proceso de instalación consiste en probar y verificar que los programas,
aplicaciones y sistema operativo estén funcionando apropiadamente. Una vez que el sistema
operativo inicial se ha instalado y las configuraciones e instalaciones post-instalación se han
establecido, es importante probar las configuraciones antes de implementar el sistema. Una prueba
apropiada ahorrará tiempo al administrador en resolver problemas después. Los problemas son
inevitables y ocurrirán después de probar el funcionamiento y desempeño apropiados. Cómo
arreglar estos problemas se tratará en el Capítulo 13, esta sección se concentra en cómo probar
aplicaciones en un sistema de prueba así como en un sistema de producción.
Verificación en un Entorno de Prueba
Hay muchas razones para probar las aplicaciones y programas antes de instalarlos en un entorno
de producción. Supongamos que se está efectuando una actualización completa del sistema
operativo. Por ejemplo, una compañía desea actualizar todos sus sistemas Linux a Red Hat 7.2. Es
una buena idea instalar el sistema operativo primero en una red de prueba. Luego instale todos los
programas y aplicaciones en el sistema y verifique que todo funcione apropiadamente. Incluso si se
trata de una única aplicación o una actualización a una aplicación, no es inteligente instalarla
directamente en un sistema de producción. Hacerlo puede introducir bugs, cambios de
configuración a formatos de archivos, y compatibilidad con otros programas. Probar y evaluar el
267
nuevo software en un sistema de prueba ayuda a reducir estos problemas.
Para establecer un entorno de prueba apropiado, recree tan exactamente como sea posible el
sistema o sistemas existente(s). Esto incluye tener el sistema operativo exacto y los programas
instalados en el sistema así como asegurarse de que el sistema de prueba tiene todos los mismos
archivos de configuración y configuraciones que tiene el sistema de producción. Esto incluye tener
el hardware exacto en el sistema de prueba que en el sistema de producción. De ser posible, es
una buena idea copiar la imagen del disco rígido del sistema de producción al disco rígido del
sistema de prueba. Si se está haciendo una actualización es una buena idea instalar la versión
antigua en el sistema de prueba y llevar a cabo la actualización como se haría en el sistema de
producción.
En algunos casos, crear una réplica exacta de la computadora de producción no es una opción.
Esto no es enteramente malo ya que la mayoría del software instalado no depende de qué
hardware está instalado. No obstante, la versión y distribución correctas de Linux debe instalarse
en el sistema de prueba que estará en el sistema de producción. Esto se debe a que diferentes
distribuciones de Linux pueden contener colecciones de paquetes muy diferentes, que contienen
controladores específicos. Por lo tanto, si no se sigue esta regla, cuando el software se use en un
sistema de producción, podría fallar.
Un único programa podría simplemente involucrar probar unas pocas veces y puede llevar muy
poco tiempo. Una instalación importante de software o paquete como un nuevo servidor web o
sistema operativo deberá requerir pruebas más extensivas y formales. Una buena práctica cuando
se hace la instalación o se actualiza en el entorno de prueba es tomar buenas notas para referirse
a ellas cuando se haga el trabajo real en el entorno de producción.
Verificación en un Entorno de Producción
Una vez que las pruebas apropiadas se han llevado a cabo en el entorno de prueba y todo ha sido
verificado y funciona apropiadamente, es hora de instalar el software en el sistema de producción.
Una buena práctica es hacer un backup de todo en el sistema de destino primero en caso de que
algo efectivamente salga mal. Otra buena práctica es establecer marcas de desempeño antes de la
actualización. Éstas pueden compararse después de que la actualización esté completa para
probar si el sistema puede manejar eficazmente el nuevo software. Esto deberá cubrirse en el
entorno de prueba, recuerde que no siempre es posible establecer una réplica completa del
sistema de producción. Con los archivos en backup es posible restaurar el sistema a su
configuración original. Incluso si se pasa la prueba, cualquiera que haya hecho instalaciones y
actualizaciones en computadoras sabe que los problemas pasan y nada funciona 100 por ciento del
tiempo.
Algunos problemas importantes a tener en cuenta es que lo más probable es que el sistema de
producción necesite llevarse offline para poder llevar a cabo la actualización o instalación. A veces
es una buena idea, para que, si algo sale mal otras computadoras conectadas al sistema no se
vean afectadas. Otra cosa importante a tener en cuenta es que podría haber otras computadoras o
usuarios de esas computadoras que se basan en el sistema que se está actualizando. Esto es
especialmente cierto si el sistema es un servidor de red. Por ejemplo, si el sistema es un servidor
de archivos que contiene los archivos de la compañía a los que los empleados necesitan acceder.
De ser éste el caso, entonces el mejor momento para programar la actualización es durante
momentos en los cuales los usuarios vayan a usar lo menos posible el servidor. Otra buena idea
podría ser mantener el sistema de prueba disponible para reemplazar temporalmente el sistema de
producción mientras se lo está actualizando. En último lugar, es importante notificar a los usuarios
del trabajo que se está haciendo para que estén concientes y puedan prepararse para el tiempo de
inactividad del servidor por anticipado.
Una vez que la instalación o actualización se ha completado y el sistema de producción está de
nuevo online y funcionando, es una buena idea practicar una serie de pruebas. Esto es para
asegurarse de que el sistema funcionará apropiadamente. Una buena práctica en este punto es
establecer el desempeño post instalación o actualización mediante marcas y compararlas con las
268
marcas tomadas antes.
Como parte de la verificación en un entorno de producción viene un continuo monitoreo durante
días e incluso semanas si la instalación o actualización fue importante. En un sistema Linux use el
comando ps para verificar que el proceso aún esté en funcionamiento. Es una buena idea verificar
los archivos log del sistema para monitorear el desempeño del sistema a lo largo de un periodo de
tiempo. Los archivos log en sistemas Linux se almacenan usualmente en el árbol de directorios
/var/log.
Resumen
El proceso de instalación de Linux involucra la implementación de muchas decisiones que se
tomaron durante la etapa de planificación. Varias de las opciones que es necesario
considerar e implementar durante la instalación en primer lugar son, ejecutar el instalador de
Linux, elegir una instalación de GUI o texto, configurar diversas opciones, y elegir paquetes
que es necesario instalar. Una vez completa la instalación, el sistema deberá reiniciarse.
La instalación básica es el primer paso de todo el procedimiento de instalación. Otra
tarea a considerar es la configuración de la GUI del X server. El proceso de
instalación intentará a veces auto-configurar el X server. A menudo lo hará con una
configuración sub-óptima. Muchas de las utilidades de configuración pueden usarse
para optimizar la configuración X una vez completo el proceso de instalación. Hay
varias tareas post-instalación que a veces se necesitan, como cambiar administradores
de ventanas o entornos de escritorio.
10. Administración de Linux
Descripción general
Este capítulo detalla el sistema operativo Linux. Linux tiene como objetivo principal ser un
Sistema Operativo de Red (NOS) basado en servidor. La instalación incluye unos pocos
pasos adicionales que no se encuentran en Windows 2000. Una vez verificado que el sistema
es compatible, Linux guía al administrador al paso final de iniciar sesión. Administrar cuentas
de usuario y el sistema de archivos también se tratan en este capítulo para proporcionar al
administrador la información necesaria para compartir carpetas, archivos, y asignar permisos.
El alumno también aprenderá sobre los daemons Linux que se configuran para servir
contenido web, proporcionar servicio de e-mail, etcétera.
10.1
Administración de la Interfaz del Usuario
10.1.1
Procedimientos de inicio de sesión
Los usuarios pueden iniciar sesión en un sistema operativo Linux usando la Interfaz de Línea de
Comandos (CLI), que es similar a la interfaz de Windows 2000. Un ejemplo de la pantalla de inicio
de sesión en modo texto para Linux Red Hat se muestra en la Figura . La consola de Linux se
denomina CLI y se tratará en más detalle posteriormente en este capítulo. En lugar de mostrar
recuadros de texto y botones como la GUI de Windows 2000, la CLI de Linux proporciona al
usuario sucesivos prompts de texto para introducir un nombre de usuario y una contraseña. No se
requiere ninguna información adicional sobre el dominio. A diferencia de Windows 2000, las
contraseñas de Linux se enmascaran completamente al ser tipeadas, haciendo importante prestar
mucha atención al introducirlas. Los usuarios deberían también ser cuidadosos de no introducir
información de cuenta inválida continuamente. Esto se debe al hecho de que algunos
administradores de sistemas implementan funciones de seguridad para bloquear o reiniciar el
sistema después de una cantidad de intentos fallidos. Una vez que la información de la cuenta se
ha entregado exitosamente, el usuario iniciará sesión en el sistema, será llevado a su directorio
home, y se le otorgará un prompt de comandos.
269
Cuando el sistema está configurado para arrancar en la Interfaz Gráfica del Usuario (GUI),
será necesario introducir un nombre de usuario y una contraseña para autenticar al usuario
en la red.
10.1
Administración de la Interfaz del Usuario
10.1.2
Interfaz GUI
Las diferencias entre una Interfaz de Línea de Comandos (CLI) y una Interfaz Gráfica del Usuario
(GUI) se trataron anteriormente. Recuerde que Linux usa una CLI con comandos basados en texto
introducidos en un prompt de comandos. Aunque este formato tiene sus ventajas, también hay
ventajas en la GUI usada por Windows. En 1984, un equipo de expertos en software del Instituto
Tecnológico de Massachsetts (MIT) crearon una interfaz gráfica llamada "X Window" que permite a
Linux operar similarmente a las otras GUIs.
Debido al potente diseño del sistema operativo Linux, el aspecto de X Window puede
personalizarse fácilmente y programarse en una cantidad infinita de formas. En el OS Windows
2000, los principales elementos de la interfaz del usuario para íconos, menúes, la barra de tareas,
etcétera, son idénticos para todos los usuarios. Los usuarios de Linux pueden personalizar
completamente su interfaz X Window para que cumpla con sus necesidades y deseos específicos
instalando diferentes programas llamados "Administradores de Ventanas" y "Entornos de
Escritorio". Tratar todos estos diferentes paquetes de software está más allá del alcance de este
curso, en cambio nos concentraremos en las similitudes subyacentes halladas en todos los
sistemas X Window.
Similitudes con Windows 2000
Una interfaz X Window típica tendrá un aspecto bastante familiar a la de un usuario de Windows
2000. Se usa un mouse como dispositivo puntero. También hay una barra de tareas, íconos que
representan datos, y ventanas que muestran información al usuario. Un ejemplo de la GUI X
Window se muestra en la Figura . Aunque los tamaños, formas y colores de estos elementos
pueden variar, los principios básicos son muy similares a la GUI de Windows 2000. Este diseño
familiar tiene como objetivo ayudar a los usuarios a volverse rápidamente productivos con el
sistema X Window y es por lo común el enfoque estándar. Pero nuevamente, la flexibilidad de Linux
también permite a los programadores la creación de nuevas e innovadoras interfaces X Window
que podrían diferir radicalmente de cualquier cosa vista antes.
270
Aprendiendo los Conceptos Básicos
Los usuarios primerizos de X Window deberán sentirse cómodos con los diversos elementos del
sistema. Determine si los íconos se lanzan con un solo clic o con doble clic. Haga clic en la barra
de tareas para investigar las diversas herramientas que contiene. Practique cómo cambiar el
tamaño, minimizar y cerrar la ventana. Una vez que los usuarios se sienten cómodos al navegar
por la interfaz X Window, están listos para comenzar a aprender sus funciones básicas.
No importa qué colores, estilos y funcionalidad pueda tener un entorno de escritorio X Window, la
consola de línea de comandos es un elemento importante que siempre será constante. La consola
de línea de comandos permanece constante. Recuerde que Linux es una CLI, y X Window es
realmente una representación gráfica de esta CLI. Por lo tanto, tiene sentido que un usuario de X
Window probablemente quiera interactuar con una consola de comandos Linux en algún punto.
Esto puede hacerse por lo común de dos maneras: ventana terminal y consola principal.
Ventana Terminal
Una ventana terminal muestra un prompt de comandos Linux estándar en una pequeña ventana de
la pantalla. Un ejemplo de una ventana terminal de Linux se muestra en la Figura . El programa
terminal de X Window estándar se denomina xterm. Ejecutar xterm muestra una ventana terminal
de Linux para que el usuario introduzca comandos. Busque xterm o cualquier otro programa de
terminal en el menú de la barra de tareas de X Window.
Consola principal
Además de ejecutar una CLI Linux con ventanas dentro de X Window, los usuarios también pueden
pasar sus pantallas a la consola principal de pantalla completa. Recuerde que al arrancar la
computadora, Linux se carga primero seguido por X Window, el administrador de ventanas, y luego
el entorno de escritorio. Puesto que Linux en sí siempre se está ejecutando en segundo plano, es
271
posible pasar el sistema de X Window a la CLI de Linux usando el teclado [CTRL + ALT + (F1 F6)]. La consola principal y las ventanas de terminal funcionan idénticamente. Usar una en lugar de
la otra es por lo general una cuestión de preferencia personal. Es posible ejecutar dos sesiones X
al mismo tiempo así como usar terminales virtuales. X se ejecuta en la terminal virtual 7, y como se
enunció antes, puede pasarse a cualquiera de las terminales virtuales CLI usando el comando
[CTRL + ALT + (F1 - F6)]. Una segunda sesión de X puede iniciarse en la terminal virtual 8 usando
el comando [startx - :1 vt8].
Aunque muchas tareas comunes de Linux pueden llevarse a cabo usando las aplicaciones gráficas
de X Window, hay muchas más que solamente están disponibles para los usuarios mediante el
prompt de comandos. Por esta razón es importante saber cómo llegar al prompt de comandos de
Linux desde dentro de X Window. En secciones posteriores prestaremos más atención a la CLI
Linux y sus comandos básicos.
La última habilidad básica X Window a comprender es la capacidad para salir del sistema.
Dependiendo de qué entorno de escritorio se está ejecutando actualmente, esto se hace por
lo común de manera muy similar a Windows 2000. Simplemente ubique el menú de la barra
de tareas y una de las primeras selecciones del menú será la opción Cerrar Sesión [Log
Off]. Seleccionar esta opción permitirá al usuario apagar o reiniciar Linux.
10.1
Administración de la Interfaz del Usuario
10.1.3
Interfaz CLI
La interfaz de línea de comandos (CLI) Linux permite al usuario interactuar con el sistema de la misma forma
que el intérprete de comandos de Windows 2000. Después de iniciar sesión en Linux, el sistema navega
hasta el directorio home del usuario y presenta el prompt de comandos. Los usuarios ahora pueden tipear
comandos, presionar la tecla Enter, y ver cualquier salida en la pantalla. Aunque la operación de Linux sigue
el mismo flujo básico que el intérprete de comandos de Windows 2000, la sintaxis de comandos entre los dos
es por lo general bastante diferente.
Como ayuda para familiarizarse mejor con el uso de Linux, los usuarios deberían intentar introducir los
comandos básicos mostrados en la Figura en el prompt. Un ejemplo de la salida del comando whoami se
muestra en la Figura . Algunos de los diferentes usos para el comando cd se muestran en la Figura .
272
No se recomienda que los usuarios intenten adivinar comandos al azar, ya que una actividad tal descuidada
podría tener un serio impacto en el sistema. La mayoría de los sistemas operativos CLI suponen que los
usuarios saben lo que están haciendo y no verifican la intención de sus comandos. Por lo tanto, los usuarios
siempre deberán ser precisos y alertas al emitir comandos en el sistema para evitar resultados no deseados.
Páginas Man
Los usuarios pueden aprender más acerca de cualquier comando mediante el uso de las páginas man, que es
abreviatura de páginas del manual. Estos archivos de ayuda muestran información detallada acerca de
cualquier comando Linux disponible para el usuario.
Las páginas man describen lo que los usuarios necesitan saber acerca de los comandos online del sistema,
llamados al sistema, formatos de archivos y mantenimiento del sistema. Las páginas man online son parte del
OS Linux y se instalan por defecto. Las páginas man asumen la forma de pantallas basadas en caracteres
simples y no son gráficas.
Para acceder a las páginas man, los usuarios necesitan estar en un prompt de comandos. Los usuarios
pueden iniciar sesión en la línea de comandos o abrir una ventana de Terminal en la interfaz KDE e iniciar con
un prompt de comandos. Las páginas man son de ayuda cuando los usuarios desean usar un comando o
utilidad y han olvidado la sintaxis o tan sólo necesitan alguna información respecto a cómo usarlo. Las
páginas man proporcionan información acerca de cómo introducir el comando, una descripción de su
propósito, y qué opciones o argumentos están disponibles. Algunos comandos no funcionarán con los tres
shells. Las páginas man indican qué comandos funcionarán con qué shells. Se refieren al shell Bourne como
(sh), al shell Korn como (ksh), al shell C como (csh) y al Bourne Again SHell como (bash). Los alumnos
aprenderán acerca de estos shells diferentes en la siguiente sección.
El Comando man
El comando man muestra páginas man online para cualquiera de los cientos de comandos Linux disponibles.
Un listado de todos los comandos Linux con una breve descripción de lo que hacen puede obtenerse
introduciendo man intro en la línea de comandos. Incluso puede mostrarse una página man sobre el
comando man en sí tipeando man man.
El comando man puede usarse de varias formas. La forma básica es man nombre, donde nombre es el
nombre del comando para el cual el usuario desea información. Hay varias opciones útiles que usar con el
comando man para llevar a cabo búsquedas de palabras clave y mostrar secciones específicas del Manual del
Programador. Hay varias formas diferentes de usar el comando man como muestra la Figura .
273
La Figura
ilustra un ejemplo del uso del comando man para obtener ayuda con el comando mkdir.
Trabajo con las Páginas Man
Las páginas man son una forma rápida y conveniente de verificar la sintaxis de comandos Linux desde un
prompt de comandos.
Encabezados de las Páginas Man
Una cantidad de diferentes encabezados o áreas informativas aparecen en una página man típica. Los más
comunes se incluyen en la lista mostrada en la Figura .
Estos encabezados se muestran en la salida de la página man en todas letras mayúsculas. Dependiendo del
comando y de su propósito, la página man podría no contener todos los encabezados. Por ejemplo, el
comando imprimir directorio de trabajo (pwd) no tiene un encabezado de opción o información sobre
274
operandos porque no se pueden usar opciones ni operandos con el comando. Todos los comandos tendrán al
menos un nombre, una sinopsis y una descripción. Un comando Linux común es cd, que permite a los
usuarios cambiar de directorio. Los resultados de la página man para el comando ls se muestran en la Figura
. Note los diferentes encabezados que se trataron anteriormente. Parte de la salida se ha omitido porque la
salida de la página man de cd es normalmente de nueve páginas de largo.
El Comando ls
Uno de los más importantes comandos que se usarán al navegar por el sistema de archivos Linux en la
Interfaz de Línea de Comandos es el comando ls. El propósito del comando ls es hacer una lista del
contenido del directorio actual. La sintaxis para el comando ls es la siguiente:
ls [opciones] [archivos]
Una vez que se ha visto la página man para el comando ls entonces se conocerán las numerosas opciones
que pueden usarse junto con este comando. Algunas de las opciones más comunes que se usan con el
comando ls se muestran en la Figura .
El comando ls puede emitirse con las [opciones] y la lista de [archivos] para mostrar el contenido de
un directorio específico. No obstante estos son opcionales y cuando se emite el comando ls sin estas
opciones entonces se presentará el contenido del directorio actual. Además, más de un nombre de archivo
puede darse para que el comando ls muestre la lista del contenido de varios directorios. La Figura ilustra
algunas de las tareas típicas de navegación llevadas a cabo mediante el comando ls.
275
10.1
Administración de la Interfaz del Usuario
10.1.4
Los shells de Linux
Los shells de Linux operan como "intérpretes de comandos". Los shells de Linux funcionan de
manera muy similar a como el programa command.com funciona para MS-DOS. Los shells de
Linux toman la entrada que tipea el administrador y usan esa entrada para lanzar comandos y
controlar el sistema operativo. No obstante, éstas son las únicas funciones similares de los shells
de Linux y el intérprete de comandos MS-DOS. Por ejemplo, en Linux el shell solamente se carga
al sistema cuando el usuario lo solicita o si el usuario inicia sesión en el shell. En MS-DOS, el
intérprete de comandos se integra al kernel y está siempre en funcionamiento. En Linux, el shell
funciona como cualquier otro programa y no está integrado al kernel del sistema operativo. Otra
diferencia principal de los shells Linux es que el usuario puede elegir de muchos shells diferentes.
Con Linux, puede elegirse un shell que se ajusta a las preferencias o el entorno.
El Shell Bourne
Éste es conocido como el shell UNIX original. El nombre del programa es (sh) y es conocido como
shell bash en sistemas Linux. Este shell proporciona todas las funciones de (sh) así como
programación del shell usando archivos script del shell.
El Shell C
Este shell no se usa ampliamente porque es uno de los shells más complicados con los cuales
trabajar. Usa una sintaxis mucho más compleja para la programación del shell que algunos de los
otros shells. Por esta razón el shell C no se recomienda para programación del shell o para crear
programas de shell.
El Shell Korn
Éste es un shell que fue escrito por David Korn. Combina las funciones interactivas que hicieron
popular al shell C con la sintaxis de programación del shell del shell Bourne. Un ejemplo de la
sintaxis usada para cambiar el Shell Korn y el prompt del shell Korn se muestran en la Figura . El
shell Korn (habilitado ejecutando ksh) no se incluye en la instalación por defecto de Red Hat.
276
Shell Born Again
Como se dijo antes, este shell fue creado como extensión mejorada del Shell Bourne. Este shell se
denomina shell bash y se usa en muchos sistemas "tipo UNIX", como Linux. La Figura
proporciona un ejemplo del prompt del shell bash.
10.1
Administración de la Interfaz del Usuario
10.1.5
Editor VI
La mayor parte de toda la administración de Linux se hace desde la línea de comandos usando los
diversos comandos, configuración, y archivos script para llevar a cabo estas funciones. A menudo
estos comandos, configuración y archivos script necesitan editarse y cambiarse para que funcionen
de la forma que es apta para el entorno de red. Linux incluye una potente herramienta de edición
llamada Editor vi que permite la edición de los archivos de configuración y script así como la
creación de algunos archivos de configuración y script. Un ejemplo de la pantalla del editor vi se
muestra en la Figura . Llevar a cabo cualquier tipo de administración del sistema con un servidor
Linux requiere que el administrador tenga un conocimiento funcional del Editor vi. La flexibilidad del
Editor vi permite la interacción con aplicaciones del sistema de manera tal que virtualmente
proporcionará a un administrador cualquier funcionalidad necesaria. El Editor vi puede parecer
difícil de comprender porque no funciona como Microsoft Word para su software suite de oficina u
otros editores de texto. Cuando se abre el Editor vi y se intenta tipear nada ocurrirá excepto que el
sistema hará "bip". Esto se debe a que el Editor vi está en modo de "comandos" cuando se lo abre
por primera vez. El comando correcto debe tipearse para entrar al modo "edición", modo de
entrada, donde la introducción de texto puede comenzar. Entre al modo "edición" eligiendo el
comando i.
277
Los Modos de vi
Los tres modos de operación en el Editor vi son comandos, edición/entrada, y última línea.
Comprender la función de estos tres modos es la clave para trabajar con el Editor vi. Todos los
comandos disponibles con el Editor vi pueden clasificarse en uno de los tres modos. La Figura
presenta una lista de los modos y proporciona una breve descripción de cada uno.
Lo importante a saber acerca del Editor vi es que no funcionará como un editor de texto típico.
Puede tipearse cualquier clase de texto pero no funciona como un editor Lo Que Ve Es Lo Que
Obtiene [What You See Is What You Get (WYSIWYG)] como Microsoft Word. El Editor vi no
contiene ninguna función de formato. Si el usuario desea que una cadena de texto tenga sangría, el
Editor vi no contiene ningún medio para ello. El usuario debe tipear el comando que hará la
sangría. Esta salida aparecerá en la copia impresa.
Obtener una completa comprensión del Editor vi y de cuáles son sus capacidades estaría más allá
del alcance de este curso. Hay libros y clases completos que tratan el Editor vi solamente. No
obstante, el potencial completo de un servidor Linux no puede lograrse sin tener conocimiento del
Editor vi y de algunos de los comandos básicos que se usan para navegar y editar scripts y
archivos de configuración. Los laboratorios acompañantes proporcionan algunos ejemplos para
abrir el Editor vi y ejecutar algunos de estos comandos para editar texto y crear un archivo script.
278
10.1
Administración de la Interfaz del Usuario
10.1.6
awk
La utilidad awk le permite crear programas breves que leen archivos de entrada, ordenan datos, los
procesan, llevan a cabo aritmética en la entrada, y generan informes. Para expresarlo de la manera
más simple posible, awk es una herramienta de lenguaje de programación usada para manipular
texto. El lenguaje de la utilidad awk se parece al lenguaje de programación de shell en muchas
áreas, aunque la sintaxis de awk es única. awk fue diseñado inicialmente para trabajar en el área
del procesamiento de texto, y el lenguaje se basa en la ejecución de una serie de instrucciones
cada vez que un patrón coincide en los datos entrantes. La utilidad escanea cada línea de un
archivo, buscando patrones que coincidan con los proporcionados en la línea de comandos. Si se
encuentra una coincidencia, da el siguiente paso de programación. Si no se encuentra ninguna
coincidencia, procede hacia la siguiente línea. Aunque las operaciones pueden volverse complejas,
la sintaxis para el comando es la misma, que es la que sigue:
awk '{patrón + acción}' {nombresdearchivos}
En la sintaxis de arriba, "patrón" representa lo que AWK busca en los datos, y "acción" es una
serie de comandos ejecutados cuando se encuentra una coincidencia. Las llaves ({}) no siempre se
requieren encerrando su programa, pero se usan para agrupar una serie de instrucciones basadas
en un patrón específico.
Considere el siguiente ejemplo del uso de awk. El primer paso sería crear un archivo de datos
usando cualquier editor de texto como vi, como se muestra a continuación:
inventario
vestidos
pedir 5
zapatos
bien
camisas
pedir 6
medias
bien
pantalones bien
12
15
8
Una vez creado y guardado el archivo, emita el siguiente comando:
#awk '/bien/ {print $3}' inventario
12
15
8
El comando anterior le indica a la utilidad awk que seleccione cada registro del archivo que
contenga la palabra "bien" y una acción de imprimir el tercer campo (Cantidad de ítems
disponibles). Usando la salida de arriba como ejemplo se puede apreciar que sería posible crear
una multitud de archivos de datos conteniendo una multitud de información de cualquier tipo. Luego
utilizando la utilidad awk, se puede extraer la información exacta de los archivos usando palabras
clave específicas como alias. awk lee la entrada de estos archivos dados una línea a la vez, luego
cada línea se compara con el "patrón". Si el "patrón" coincide para cada línea entonces la
acción dada se toma. "patrón" puede consistir en una o más expresiones regulares. Un resumen de
metacaracteres awk comunes se muestra en la Figura .
279
10.2
Cuentas de Usuario y Cuentas de Grupo
10.2.1
Cuentas de usuario y grupo en un entorno Linux
Antes de introducirnos en la verdadera administración de usuario y grupo, es una buena idea
aprender los conceptos e y detalles de implementación de las cuentas de usuario en un sistema
multiusuario. Comprender estos conceptos puede ayudar a cualquier administrador a planificar una
seguridad eficaz de cuentas de usuario y grupo.
Cuentas de Usuario en un Entorno Multiusuario
Las cuentas de usuario en un sistema Linux permiten a varias personas iniciar sesión en el sistema
al mismo tiempo o an momentos diferentes sin interferir entre sí. Un usuario puede incluso tener
varios inicios de sesión activos a la vez. Antes de llevar a cabo tareas administrativsa con cuentas
de usuario o grupo, es importante comprender qué permiten hacer las cuentas de usuario a un
multiusuario en el sistema Linux, y cómo se identifican usuarios y grupos diferentes.
Hay varios términos importantes que es necesario aprender para poder comprender el lenguaje que
trata con la administración de cuentas del usuario. Primero, los términos usuario y cuenta a veces
se usan de manera intercambiable. Por ejemplo, pueden escucharse los términos "borrar una
cuenta" o "borrar el usuario". Con este propósito significan lo mismo, borrar la cuenta del usuario o
su acceso al sistema. Hay varios otros términos importantes que es necesario aprender. Algunos
de ellos se muestran en la Figura y se tratan a continuación.
Nombre de usuario
Éste es un nombre único que se otorga a cada persona a quien esté permitido iniciar sesión en el
sistema. Es una buena idea tener reglas respecto a los nombres de usuario para hacer más fácil
identificar a un usuario por su nombre de usuario. Nombres de usuario comunes son la primera
letra del nombre del usuario y su apellido entero. Por ejemplo, el nombre de usuario de John Smith
sería jsmith.
280
Privilegios de Inicio de Sesión
Una vez que se ha otorgado un nombre de usuario y contraseña a un usuario y se les permite
iniciar sesión en el sistema, a los usuarios solamente se les otorga acceso a ciertos directorios. Los
usuarios también se ven limitados en cuanto a lo que se les permite hacer en el sistema. Los
privilegios de inicio de sesión enuncian qué tipo de derecho se otorgará a un usuario una vez que
acceda al sistema.
Protección con Contraseñas
Junto con un nombre de usuario, los usuarios deben proporcionar una contraseña para iniciar
sesión en un sistema Linux. La contraseña está oculta a diferencia del nombre de usuario, que se
conoce públicamente. Muchos sistemas Linux tienen reglas respecto a las contraseñas como la
longitud o tipos de caracteres usados.
Permisos
El sistema de archivos controla quién tiene permiso para acceder a archivos y ejecutar programas.
Los permisos de archivos se tratarán en detalle en este capítulo.
Directorio Home
En un sistema Linux, cada cuenta de usuario tiene un directorio home asociado a él. El usuario
tiene completo acceso a este directorio. El usuario puede agregar o borrar archivos de este
directorio o puede usárselo simplemente para almacenar archivos.
IDs de Usuario y Grupo
Éstos son números que el sistema operativo Linux usa para identificar a un usuario o grupo. Linux
no usa nombres. El sistema operativo usa números por lo que usa la ID de usuario (UID) para
identificar usuarios y una ID de grupo (GID) para identificar grupos de usuarios.
Shell por Defecto
Cuando un usuario inicia sesión en un sistema Linux e introduce comandos en la línea de
comandos, lo está haciendo desde el prompt del shell. Esto es lo que se usa para interpretar estos
comandos para el kernel Linux. Hay varios shells de los cuales elegir. El shell por defecto es el
shell presentado al usuario cuando inicia sesión. Toda esta información para cuentas de usuario se
almacena en dos archivos de configuración del sistema Linux: los archivos /etc/passwd y
/etc/shadow. El propósito y la diferencia entre estos archivos se explicaron en el capítulo anterior.
Cuentas de Usuario en un Sistema Multitarea
El sistema operativo Linux es tanto un sistema multiusuario como multitarea. La naturaleza de las
cuentas de usuario es tal que varios usuarios pueden haber iniciado sesión en un único sistema
Linux al mismo tiempo. Los usuarios pueden haber iniciado sesión localmente o remotamente por
medio de una red. Por esta razón, un sistema multitareas que está siendo usado por usuarios
simultáneos requerirá conectividad de red. Estos usuarios pueden estar usando más de un
programa a la vez y pueden incluso usar el mismo programa al mismo tiempo. Por ejemplo, un
usuario puede haber iniciado sesión y estar usando XEmacs, otro usuario puede haber iniciado
sesión y estar usando el navegador web, y otros dos usuarios pueden haber iniciado sesión usando
un editor de texto al mismo tiempo. Es posible configurar Linux para que sea un OS de usuarios
múltiples en el que varios usuarios pueden iniciar sesión usando una única cuenta de usuario. No
obstante, esto no se recomienda por varias razones. Proporcionar a cada usuario su propia cuenta
de usuario otorga al administrador la capacidad de controlar la seguridad usuario por usuario.
Tenga en cuenta que aunque Linux es un sistema multitareas, no puede soportar una cantidad
ilimitada de usuarios simultáneos. Si una gran cantidad de usuarios han iniciado sesión en el
sistema y muchos de estos usuarios están intentando todos usar el mismo programa,
experimentarán un deterioro en el desempeño. La cantidad real de usuarios que un único sistema
Linux puede soportar depende de diversos factores. Depende de qué programas están siendo
usados en ese momento. Algunos programas consumen más recursos del sistema, como la RAM,
el tiempo de la CPU, o I/O de disco, que otros. Por esta razón, otros factores incluyen cuántos de
estos recursos tiene el sistema. Un sistema con más RAM, una CPU más rápida, velocidad de
281
disco más rápida, y más capacidad en disco puede manejar más usuarios simultáneos.
La Cuenta Superusuario
La cuenta de usuario más importante en un sistema Linux es la cuenta Superusuario. También se
denomina cuenta raíz. Recordemos del capítulo anterior, esta cuenta es creada por defecto durante
el proceso de instalación. Ésta es la cuenta que es usada por el administrador del sistema para
llevar a cabo cualquier tarea administrativa en un sistema Linux. La cuenta Superusuario puede
usarse de varias maneras.
·
·
·
·
Inicio de sesión como raíz La cuenta raíz puede usarse para iniciar sesión en la
computadora desde la consola principal. De hecho, iniciar sesión como raíz de esta manera
solamente puede hacerse desde la consola principal. Una vez iniciada la sesión, cualquier
acción que se lleve a cabo en el sistema se hará como raíz. Esto puede representar
amenazas a la seguridad por lo cual se recomienda que se haga durante breves periodos y
después cerrar la sesión de la cuenta Superusuario.
Su La cuenta su puede usarse para adquirir temporalmente privilegios de superusuario en
un sistema Linux para llevar a cabo tareas administrativas o ejecutar un comando que
requiere privilegios de superusuario. Tipee el comando y presione Enter. Aparecerá un
prompt para la contraseña superusuario y si se la introduce correctamente se otorgarán
privilegios raíz. Para volver a la cuenta con privilegios de usuario normal tipee exit. El
comando su también puede usarse para pasarse a la cuenta de otro usuario. Por ejemplo,
tipee su jsmith para asumir el rol de la cuenta de jsmith. Si ya había iniciado sesión como
raíz no habrá prompt para la contraseña de jsmith. Esto se debe al hecho de que cuando
se ha iniciado sesión como raíz se otorgará acceso a cualquier cuenta de usuario del
sistema.
Sudo Este comando permite a un administrador seleccionar ciertos comandos que pueden
introducirse sin tener que ser raíz, que de otro modo requerirían privilegios de
superusuario. Esto se hace editando el archivo /etc/sudoers y especificando qué usuarios y
comandos pueden introducir estos comandos en la línea de comandos sin tener que ser
raíz.
Archivos raíz SUID Es posible seleccionar un archivo a ejecutar como si fuera ejecutado
por el raíz, pero puede ser ejecutado por cualquier usuario del sistema.
Es importante ser muy cauteloso al usar la cuenta superusuario a causa de los problemas de
seguridad y del daño que puede causar a la computadora. Por esta razón, no se recomienda que la
cuenta raíz sea usada como cuenta regular incluso por el administrador del sistema. Un simple
error tipográfico al ejecutar un comando puede ocasionar un daño serio y no intencional al sistema.
Por ejemplo, supongamos que hubiera que borrar /home/jsmith/tempdir. El comando rm -r
/home/jsmith/tempdir se introduciría para ello. No obstante, supongamos que se cometió un error
y se introdujo el comando equivocado. Se introdujo rm -r / home/jsmith/tempdir por error,
colocando un espacio entre / y home. Esto haría que la computadora borrara todos los archivos en
el directorio / así como en /home/jsmith/tempdir. Si esto ocurriera mientras se ha iniciado sesión
con una cuenta de usuario regular, habría un prompt para cambiar a la cuenta superusuario para
llevar a cabo esto y el error se atraparía antes de completar este comando.
Cuentas de Grupo
Los grupos en un sistema Linux se usan con los mismos propósitos que en otros sistemas
operativos. Los grupos proporcionan un medio para vincular usuarios similares por motivos de
productividad y hacer la administración de cuentas de usuario mucho más fácil. Las cuentas de
grupo son similares a las cuentas de usuario en el hecho de que se las define en un único archivo,
/etc/groups, similar al archivo /etc/passwd para cuentas de usuario. Segundo, los grupos también
tienen nombres, similares a los nombres de usuario para las cuentas de usuario. Por último, como
se mencionó anteriormente, los grupos están ligados a una ID (GID).
Las cuentas de grupo no obstante, no son cuentas de usuario. Las cuentas de grupo son una forma
de agrupar un conjunto de usuarios similares con propósitos de seguridad. Por ejemplo, es posible
agrupar a los ejecutivos de una compañía que podrían tener cierto acceso a archivos y agrupar a
282
otros empleados, que pueden no tener acceso a estos archivos. Recuerde que Linux controla el
acceso al hardware mediante archivos. Los grupos pueden usarse para limitar el uso de hardware
del sistema a un grupo específico de usuarios también. Más detalles, incluyendo la creación de
grupos y el agregado de usuarios, se tratarán posteriormente en este capítulo.
10.2
Cuentas de Usuario y Cuentas de Grupo
10.2.2
Agregado y Eliminación de Cuentas de Usuario
La primera cuenta de usuario creada durante una instalación de Linux es la cuenta "raíz". Esta
cuenta superusuario es usada por el administrador del sistema para crear todas las otras cuentas
de usuario del sistema. Por defecto y por razones de seguridad, ningún otro usuario tiene el poder
de agregar usuarios excepto por el raíz. El proceso de crear un usuario Linux completamente
personalizado puede ser bastante complejo, por lo tanto solamente los comandos, indicadores y
parámetros básicos se tratarán aquí.
El Comando useradd
El usuario raíz crea otros usuarios Linux mediante el comando useradd. Un ejemplo de este
proceso está ilustrado en la Figura . Cuando este comando se introduce en el prompt, Linux lleva
a cabo muchas tareas simultáneas para crear la cuenta del usuario, como crear un directorio home
y asignar permisos por defecto. La sintaxis básica del comando es la siguiente:
useradd nombreusuario -c"nombre real"
Por ejemplo: useradd jdoe -c "John Doe"
Esta cadena entera se tipea en el prompt de comandos Linux antes de presionar la tecla Enter. El
parámetro nombre de usuario será el nombre de inicio de sesión para el nuevo usuario al iniciar
sesión en el sistema. Es sensible al uso de mayúsculas y minúsculas y siempre deberá tipearse en
todos caracteres minúsculos. El indicador -c se usa para introducir el campo de comentario, que en
la mayoría de los sistemas se usa para almacenar el nombre real del usuario. Otros indicadores de
parámetros existen para el comando useradd y pueden encontrarse viendo su página man. La
salida de la página man para el comando useradd (man useradd) se muestra en la Figura . Los
administradores del sistema en general usarán muchos más de estas opciones de comandos para
personalizar completamente a sus nuevos usuarios. No obstante, el ejemplo demuestra los
conceptos básicos del comando con configuraciones por defecto principalmente.
283
El Comando passwd
Una vez que una nueva cuenta de usuario ha sido creada, debe dársele una contraseña antes de
que el usuario pueda iniciar sesión en el sistema. Esto se hace en Linux mediante el comando
passwd. Los usuarios pueden ejecutar este comando para cambiar sus propias contraseñas, pero
el usuario raíz también puede usarlo para modificar las contraseñas de todos los usuarios. Por lo
tanto, una vez creada una nueva cuenta, el siguiente comando es introducido por el usuario raíz
para crear la contraseña de la nueva cuenta:
passwd nombreusuario
Por ejemplo: passwd jdoe
Al usuario raíz se le pedirá que introduzca una nueva contraseña y que la confirme volviéndola a
tipear. Una vez completo este proceso, el nuevo usuario estará listo para iniciar sesión en el
sistema con los recientemente creados nombre de usuario y contraseña. Después de iniciar sesión
por primera vez, la contraseña deberá cambiarse nuevamente mediante el comando passwd.
Hágalo sin el parámetro nombreusuario, y a una que sea más privada y desconocida por el
administrador del sistema.
El Comando userdel
La forma más fácil de eliminar una cuenta de usuario es mediante el comando "userdel". Este
comando solamente puede ejecutarse con la cuenta raíz. Un ejemplo de la sintaxis del comando es
el siguiente:
userdel nombreusuario
El comando anterior eliminará la entrada que coincide con el nombre de usuario del archivo
"/etc/passwd''. Si está usando el formato de contraseña Shadow, eliminará la cuenta del usuario del
archivo "/etc/shadow''.
Tenga en cuenta que emitiendo el comando anterior sin opciones, se borrará solamente la cuenta
del usuario. El directorio home y cualquier archivo dentro del directorio home de la cuenta del
usuario no se borrarán. Si desea borrar el directorio home del usuario también, agregue la opción "r" al comando "userdel', como se muestra a continuación.
userdel -r nombreusuario
284
10.2
Cuentas de Usuario y Cuentas de Grupo
10.2.3
Administración de cuentas de usuario
Con la CLI Linux, la administración de usuarios nuevamente se realiza mediante diversos
comandos, indicadores y parámetros, como lo muestra la Figura . En particular, cambiar un
nombre de usuario, cambiar una contraseña, o borrar una cuenta puede llevarse a cabo con
comandos mínimos. No obstante, el proceso de inhabilitar una cuenta requiere un poco más de
esfuerzo. El administrador del sistema debe editar el archivo que almacena toda la información de
usuarios del sistema e inhabilitar manualmente la contraseña del usuario.
Este procedimiento no es tan difícil como puede sonar. En la mayoría de los sistemas Linux, las
contraseñas del usuario se almacenan en un archivo central denominado archivo "shadow", que
está ubicado en el directorio /etc. Este archivo puede editarse con un editor de texto como el Editor
vi. El comando para editar el archivo shadow sería el siguiente:
vi /etc/shadow
La Figura
muestra un ejemplo del archivo /etc/shadow mostrado en el editor vi.
Pico, otro editor de texto, permite el uso de las teclas de flechas para navegar por la lista de
cuentas de usuario hasta hallar la cuenta a ser inhabilitada. La información del usuario se enumera
de manera continuada en una única fila con dos puntos (:) separando cada campo. El primer
campo es el nombre de usuario, y el segundo es la contraseña cifrada del usuario. Para inhabilitar
la cuenta, el administrador del sistema puede simplemente colocar un asterisco (*) al principio de la
contraseña cifrada. Esto hará que la contraseña sea imposible de introducir al iniciar sesión,
inhabilitando así eficazmente la cuenta hasta que el administrador del sistema elimina el asterisco
nuevamente. Para guardar el archivo shadow, presione CTRL-X para salir de pico y presione la
tecla Y para guardar los cambios.
285
Algunos de los otros comandos importantes y útiles para ayudar a administrar y controlar la
seguridad de las cuentas de usuario y grupo se muestran en la Figura .
10.2
Cuentas de Usuario y Cuentas de Grupo
10.2.4
Creación de grupos y agregado de usuarios a grupos
Cada grupo de un sistema Linux puede tener desde ningún miembro hasta muchos miembros
como cuentas de usuario en el sistema. Recuerde de la sección anterior, la membresía de grupo
está controlada por el archivo /etc/group. Éste es el archivo que contiene una lista de todos los
grupos y miembros de esos grupos en un sistema Linux.
Cada usuario, al iniciar sesión en un sistema Linux, inicia sesión en su grupo principal. Éste es el
grupo que es pecifica la membresía de grupo por defecto y se establece en el archivo de
configuración del usuario. Cuando un usuario inicia sesión en su grupo principal, puede acceder a
los archivos y ejecutar programas asociados con ese grupo en particular al cual pertenecen. Si un
usuario desea acceso a los archivos o programas que no están en su grupo principal, pueden pasar
al grupo con el cual el archivo o programa en particular está asociado. No obstante, el usuario debe
ser miembro de ese grupo para poder pasarse a él. Éste es un medio excelente de controlar la
seguridad en un sistema Linux. Para cambiar a un grupo diferente después de iniciar sesión en el
sistema use el comando newgrp. La sintaxis para este comando es la siguiente:
newgrp nombre-grupo
Por ejemplo: newgrp ingeniería
En un sistema Linux, solamente la cuenta raíz, superusuario, tiene el poder para crear y administrar
grupos. Estas tareas se llevan a cabo usando comandos simples para crear, renombrar, o borrar
grupos desde el sistema. A la mayoría de los usuarios Linux se les asigna un grupo durante el
proceso de creación de la cuenta. La siguiente sintaxis se usa para crear un grupo en un sistema
Linux:
groupadd nombregrupo
Por ejemplo: groupadd ingeniería
Este comando crea el grupo ingeniería. Una vez creado el grupo, los usuarios pueden agregarse al
grupo. Esto se puede hacer mediante los siguientes comandos.
Una forma de agregar un usuario a un grupo es hacerlo al crear la cuenta de usuario. La siguiente
sintaxis se usa para expandir el comando useradd:
useradd -g grupo nombreusuario -c "nombre real"
Por ejemplo: useradd -g ejecutivos jdoe -c "John Doe"
286
Para agregar uno o más usuarios (miembros) a un grupo, se usa el siguiente comando:
gpasswd -M nombreusuario1 [nombreusuario2 nombreusuario3 ...] grupo
El comando gpasswd puede usarse para modificar grupos existentes. Solamente el usuario raíz
(administrador del sistema) puede usar la opción -M (miembros). Algunas otras opciones que están
disponibles para usar con el comando gpasswd se muestran en la Figura .
Este comando puede introducirse sin ninguna opción en cuyo caso permitirá el cambio de la
contraseña de grupo. Ésta es la contraseña que puede ser usada por los usuarios para volverse
miembros temporales de un grupo si necesitaran acceso a los archivos o programas asociados a
ese grupo.
El comando groups puede usarse entonces para mostrar los grupos actuales al cual
pertenece un usuario. Note que el usuario raíz es un miembro de todos los grupos por
defecto. Los administradores de sistemas Linux deberían asegurarse de consultar las
páginas man para todos estos comandos para aprender más acerca de sus otras funciones
relacionadas.
10.3
Sistema de Archivos y Administración de Servicios
10.3.1
Crear y compartir directorios
Al igual que navegar por el sistema de archivos Linux, crear archivos y directorios en Linux es
simplemente una cuestión de conocer los comandos apropiados y cómo usarlos. Los comandos
aquí presentados permitirán al usuario crear, copiar, mover, renombrar y borrar archivos,
directorios, o ambos. Note que algunos de los comandos usan la misma sintaxis tanto para
archivos como para directorios, mientras que otros son diferentes. Como todos los sistemas CLI,
esto requiere que el usuario memorice y comprenda cómo usar cada comando.
287
Cuando se usa cualquiera de estos comandos por primera vez, especialmente los comandos
de eliminación, es una buena idea probar los comandos en archivos de prueba y directorios
de prueba. Note que los usuarios pueden modificar solamente archivos y directorios para los
cuales tengan los permisos del sistema necesarios. Esto evita que los usuarios maliciosa o
accidentalmente modifiquen datos, como borrar archivos del sistema Linux importantes.
Los permisos se tratarán en una sección posterior.
10.3
Sistema de Archivos y Administración de Servicios
10.3.2
Uso de find y grep
El comando find
El comando find es una de las más útiles e importantes utilidades de administración de archivos
en Linux. El comando find se usa para localizar uno o más archivos suponiendo que se conocen
sus nombres de archivo aproximados. Vale la pena comprenderlo en profundidad porque hace
mucho más que localizar archivos. El comando find le permite especificar filtros, y ejecutar
comandos en el contenido de árboles de directorio enteros. Desafortunadamente, find no está bien
documentado, pero es realmente simple de usar y una excelente herramienta Linux.
Para comprender cómo usar el comando find considere un caso en el cual puede haberse tipeado
un documento y no se recuerda el nombre del documento, pero sabe que lo creó hace menos de 4
días, era más pequeño que 350k, y contenía el trabajo 'Biología_Ciencia_Experimento'. La
siguiente sintaxis es un ejemplo de cómo podría usar el comando find para ubicar el archivo.
$ find /home/rtalbot
-type f -size -350k -atime
-4 | xargs -0 grep
'Biología_Ciencia_Experimento'
El comando find desciende a través de la jerarquía de directorios y aplica la cadena lógica a cada
ítem de la carpeta. En el ejemplo, find comienza en la carpeta home /rtalbot. Luego para cada
ítem de esa carpeta, aplica la cadena lógica. En este caso: -type f -size -286k -atime -4. Cada
atributo de prueba es evaluado, y si es cierto, pasa al siguiente atributo de prueba. Si la entrada es
un directorio, find desciende en él. La siguiente lista describe los diversos atributos del ejemplo
anterior:
·
·
·
'-type f' ¿es la entrada un archivo?
'-size -100k' ¿tiene la entrada menos de 100k?
'-atime -7' ¿es el tiempo de acceso menos de hace 7 días?
288
Si cualquiera de los atributos de prueba falla, find deja de procesar el resto de los atributos de
prueba y pasa a la siguiente entrada. Usando el ejemplo de arriba, cualquier archivo que sea más
de 350k falla la prueba del atributo tamaño y no se probará para su tiempo de acceso o cualquier
atributo de prueba subsecuente.
El comando grep
El comando grep le permite buscar un patrón en una lista de archivos. Estos patrones se
especifican como expresiones regulares, que son cadenas, como palabras o fragmentos de
oraciones. La forma de buscar una cadena mediante el comando grep es colocar las palabras que
está buscando juntas entre comillas simples. La sintaxis de grep es la siguiente:
$ grep pattern file-name-1
file-name-2 …file-name-n
Un ejemplo se muestra en el ejemplo de arriba del comando find. También podrían agregarse al
final los nombres de archivos "Lab_A", "Lab_B", y "Lab_C" después de la cadena de búsqueda
"Biología_Ciencia_Experimento" como se muestra a continuación:
$ grep 'Biología_Ciencia_ Experimento' Lab_A Lab_B Lab_C
El resultado que se devuelve mostraría todas las líneas de los archivos "Lab_A", "Lab_B", y
"Lab_C" que contengan la cadena "Biología_Ciencia_Experimento".
10.3
Sistema de Archivos y Administración de Servicios
10.3.3
Contraseñas y permisos
El sistema de permisos de Linux es mucho más difícil que el de Windows 2000. Se da más control
a los administradores de sistemas mediante el uso de tres categorías de permisos distintivas de
lectura, escritura y ejecución. Un ejemplo de algunos archivos Linux con explicaciones detalladas
de los permisos de archivos y directorios por defecto se muestran en la Figura . En Windows
2000, el permiso de lectura controla la capacidad de un usuario para entrar a y ver un directorio.
Esta funcionalidad se divide en dos permisos separados en Linux. Por lo tanto, el permiso de
ejecución controla la capacidad de un usuario de entrar a un directorio, mientras que el permiso de
lectura controla su legibilidad. Esto permite un control muy detallado de los permisos del sistema.
También hace a la necesidad de seguridad aún más importante ya que usuarios inexpertos pueden
no estar al tanto de ningún "agujero" de seguridad que hayan creado inintencionadamente.
El Comando chown
Los permisos de archivos y directorios en Linux se controlan mediante el uso de los dos comandos
muy importantes chown y chmod. El comando chown es llevado a cabo por todos los usuarios
para especificar la pertenencia a usuario y gruop de un archivo o directorio y sigue el formato:
chown nombreusuario.grupo nombrearchivo
289
Por ejemplo: chown jdoe.ejecutivos informe_01
En este ejemplo, el usuario jdoe y el grupo ejecutivos son ahora los propietarios del archivo llamado
informe_01.
El Comando chmod
La propiedad de archivos y directorios es un concepto importante en Linux porque los permisos se
declaran tanto para usuarios como para grupos basándose en esta pertenencia. Por ejemplo, si el
archivo informe_01 permite acceso completo al usuario y denega todo acceso del grupo, entonces
jdoe podrá acceder al archivo, pero los miembros del grupo ejecutivos serán bloqueados. Estos
permisos se declaran mediante el uso del comando chmod:
chmod modo nombrearchivo
Por ejemplo: chmod 700 informe_01
Este comando de muestra ha otorgado ahora al usuario todos los permisos de lectura, escritura y
ejecución, no dándole a su grupo ni a todos los otros usuarios ningún permiso. Esto se especifica
en el modo del comando, que en este caso es 700. Cada dígito del número representa los tres
diferentes tipos de usuarios del sistema. Comenzando desde la izquierda, el primer dígito
representa al usuario o propietario, el dígito medio representa al grupo, y el dígito del extremo
derecho representa a todos los otros usuarios del sistema (usuario-grupo-otro). A los tres tipos de
permisos de lectura, escritura y ejecución se les otorga valores numéricos según se muestra a
continuación:
Lectura = 4
Escritura = 2
Ejecución = 1
Para otorgar a un usuario en particular permisos específicos, los números apropiados se suman y
luego se los enumera en el orden apropiado. Por ejemplo, para otorgar al propietario permisos de
lectura y ejecución, al grupo permiso de ejecución, y a todos los otros usuarios permiso de
escritura, el número apropiado sería 512. Y por supuesto, para no otorgar ningún permiso, un cero
se adjudica para esa categoría de usuario. Asignar permisos en Linux es bastante más tedioso que
la interfaz manejada por menúes de Windows 2000. No obstante, la flexibilidad de Linux sí
proporciona mayor control al administrador de sistemas experimentado.
El atributo sticky bit
Los permisos de acceso a directorios estipulan que si un usuario tiene permiso de escritura en un
directorio, puede modificar o borrar archivos en dicho directorio, incluso archivos que no le
pertenecen. Muchas versiones de Linux tienen una forma de evitar eso. El propietario de un
directorio puede establecer el atributo sticky bit. En este caso, la única persona que puede
renombrar o eliminar cualquier archivo en ese directorio son el propietario del archivo, el propietario
del directorio o la cuenta raíz. El siguiente ejemplo muestra cómo establecer el permiso sticky bit en
el directorio testdir y también la diferencia entre antes y después de haber establecido el atributo:
Root$ ls -ld testdir
drwxrwxrwx 2 rtalbot rtalbot 512 Jul 15 21:23 testdir
Root$ chmod +t testdir
Root$ ls -ld testdir
drwxrwxrwt 2 rtalbot rtalbot 512 Jul 15 21:23 testdir
10.3
Sistema de Archivos y Administración de Servicios
10.3.4
Montaje y administración de sistemas de archivos
Los dos comandos que usa Linux para montar y desmontar sistemas de archivos y particiones son
mount y umount. La sintaxis para el comando mount es la siguiente:
290
mount [-alrsvw] [-t fstype] [-o options]
Sigue una lista de los parámetros comunes que pueden usarse junto con el comando mount. Tenga
en cuenta que ésta no es una lista completa de todos los parámetros que pueden usarse con el
comando mount Para encontrar una lista abarcativa, se recomienda consultar la página man de
mount. Algunas de las opciones que pueden usarse junto con el comando mount se muestran en la
Figura .
La opción -o toma una lista de las opciones separadas por coma, que se muestra en la Figura
.
Un administrador muy a menudo sólo utilizará el argumento por defecto con el comando mount. La
sintaxis tendría este aspecto:
mount/dev/hda4/mnt/ITEss2
Este comando montaría el contenido de /dev/hda4 en el directorio /mnt/ITEss2, auto-detectando e
tipo de sistema de archivos y usando las opciones por defecto.
Uso del Comando umount
El uso del comando umount es más simple que el uso del comando mount. La sintaxis para el uso
del comando umount es la siguiente:
umount[-anrv] [-t fstype] [device | mountpoint]
291
Los parámetros que se usan con el comando umount son muy similares a los usados con el
comando mount. Algunas de las diferencias más importantes se muestran en la Figura .
Las mismas reglas para mount se aplican a umount en relación a quién se le permite ejecutar estos
comandos. Solamente el usuario raíz puede usar el comando umount. Esto es a menos que un
usuario o propietario específico en la lista del archivo /etc/fstab/ tenga permiso para usar el comando
umount para desmontar una partición, sistema de archivos, o dispositivo.
Uso del Comando df
El comando df es un comando útil usado para ayudar a administrar sistemas de archivos en
máquinas Linux. Un ejemplo de la salida del comando df se muestra en la Figura . El comando
df mostrará información acerca de una unidad de disco rígido o partición que incluya espacio en
disco rígido total, usado y disponible. Hay muchos parámetros que pueden usarse con este
comando también. Algunos de los importantes se muestran en la Figura .
El comando df puede usarse solo o en combinación con estos parámetros para mostrar información
sobre cualquier sistema de archivos que se monta en un sistema Linux. Puede mostrarse
información sobre un dispositivo o partición específicos agregando el dispositivo en el cual reside la
partición o cualquier archivo o directorio del sistema de archivos, que limitará la salida a una
partición específica.
Uso del Comando du
El comando df es un comando muy útil que puede usarse para mostrar información acerca de
sistemas de archivos y particiones que se montan en un sistema Linux. No obstante, a veces es
292
necesario encontrar información acerca de directorios o archivos individuales que están ubicados en
una de estas particiones. Por ejemplo, si es necesario liberar espacio en un disco rígido, use el
comando du para mostrar información acerca del directorio home de un usuario específico para
tomar una decisión respecto a qué archivos mover o borrar para hacer espacio. Un ejemplo de la
salida del comando du se muestra en la Figura . Usar el comando df podría brindar información
sobre toda la partición o unidad pero no sobre un directorio específico.
Al igual que con el comando df, hay varios parámetros que pueden usarse junto con el comando
du. Algunos de ellos se muestran en la Figura .
Ésta no es una lista completa de todos los parámetros que pueden usarse con el comando du.
Para encontrar una lista abarcativa, se recomienda consultar la página man de mount. El
comando du puede usarse solo o en conjunción con estos parámetros para mostrar
información acerca de cualquier archivo o directorio que se monta en un sistema Linux.
10.3
Sistema de Archivos y Administración de Servicios
10.3.5 Archivos de configuración del sistema de archivos
Existen dos tipos de archivos de configuración para el sistema de archivos Linux. Ellos son archivos
de configuración del Usuario y del Sistema. Los archivos de configuración del usuario almacenan
información que es específica de un usuario individual como las ubicaciones de los íconos del
escritorio, las preferencias del administrador de ventanas, y los scripts que se configuran para
ejecutarse automáticamente. Los archivos de configuración del usuario son componentes esenciales
que componen un sistema multiusuario. Estos archivos almacenan información para cada usuario
293
para que cuando inician sesión para usar el sistema, todas sus configuraciones permanezcan
intactas. Los archivos de configuración del sistema controlan las configuraciones para todo el
sistema. Éstos son archivos que controlan servicios que se configuran para ejecutarse para cada
usuario que inicia sesión en el sistema. Saber dónde localizar estos archivos y editarlos ayudará a
cualquier administrador a resolver una variedad de problemas asociados con el sistema operativo
Linux.
Archivos de Configuración del Usuario
Puesto que estos archivos controlan la configuración de cada usuario individual, los archivos que
almacenan estas configuraciones se almacenan en el directorio home de cada usuario. Los archivos
de configuración del usuario se almacenan como archivos de punto (.). La Figura proporciona un
ejemplo de un directorio home de muestra con los archivos de punto (.) visibles. Por ejemplo, la
configuración del usuario para la interfaz KDE se almacenan en los archivos .kde y .kderc. Estos
archivos de punto están ocultos y son ignorados por la mayoría de las herramientas de Linux. Si se
usa el comando ls para enumerar el contenido del directorio home del usuario, estos archivos no
figurarán en la lista. Pueden figurar agregando el parámetro -A al comando ls. Este comando
enumera todo excepto los archivos . y ... El OS Linux hace a estos archivos ocultos para que no
distraigan y parezcan ejecutarse en segundo plano. Algunos archivos de configuración del usuario
importantes se muestran en la Figura .
Éstos son solamente algunos de los archivos de configuración del usuario que se almacenan en un
sistema Linux. Al inspeccionar el directorio home se notarán más y a medida que se instalan y
ejecutan programas, incluso más pueden aparecer. También hay muchos archivos de configuración
asociados con programas que almacenan información específica de un usuario individual.
Archivos de Configuración del Sistema
Los archivos de configuración del sistema controlan aspectos del sistema operativo que se
relacionan con todo el sistema en oposición a cualquier usuario específico. Estos archivos se
encuentran usualmente en su correspondiente subdirectorio ubicado en el directorio /etc. Por
ejemplo, los archivos de configuración de Samba pueden encontrarse en el directorio /etc/Samba.
Éstas son unas pocas diferentes categorías de archivos de configuración del sistema. Algunos se
ejecutan cuando el sistema se inicia, otros controlan el sistema después de que se ha iniciado, y
otros controlan servidores específicos de un sistema Linux.
Archivos de Configuración de Inicio
El programa principal que se usa para ejecutar los archivos de configuración de inicio es el
programa init. Este programa usa el archivo de configuración /etc/inittab para almacenar las
configuraciones respecto a cómo deberá iniciarse el sistema. Red Hat Linux usa el script de
inicialización /etc/rc.d/rc.sysinit, que se especifica en el archivo de configuración para que ejecute
una serie de scripts de inicio que indican cómo se supone que arranque el sistema.
Específicamente, estos scripts se ejecutan de acuerdo al nivel de ejecución del sistema. Los niveles
294
de ejecución se tratarán posteriormente en este capítulo. En este punto simplemente comprenda
que el sistema siempre se inicia en un nivel de ejecución en particular, 0-6. Si el sistema se
configura para que inicie en el nivel de ejecución 5, entonces todos los scripts que están
configurados para ejecutarse en el script de inicialización /etc/rc.d/rc.sysinit inician cuando el
sistema se inicia en el nivel de ejecución 5. Todos los servidores y utilidades del sistema que están
configurados para ejecutarse en un nivel de ejecución en particular se almacenan en archivos de
acuerdo al nivel de ejecución en particular en el cual se inician. En Red Hat Linux, el nombre de este
archivo es /etc/rc.d/rc#.d, donde # es el número de nivel de ejecución. Los scripts que se
almacenan en estos archivos se configuran para iniciar o eliminar un servidor o utilidad del sistema
en particular cuando el sistema se inicia en ese nivel de ejecución en particular.
El resultado de estos archivos de configuración de inicio es que un administrador puede configurar
un sistema para controlar qué servidores y utilidades del sistema se inician en cualquier nivel de
ejecución determinado automáticamente al iniciarse el sistema.
Archivos de Configuración de Función del Sistema
Los archvos de configuración de función del sistema controlan las funciones del sistema una vez
que éste ha arrancado. A diferencia de los archivos de configuración de inicio, estos archivos no son
scripts. Son archivos usados por otros programas. Algunos de los más importantes archivos de
configuración de función del sistema se muestran en la Figura .
Éstos son solamente unos pocos de los muchos archivos de configuración que controlan funciones
del sistema una vez que el sistema ha arrancado. Hay muchos más pero la mayoría de ellos nunca
necesitarán ser configurados. Dependiendo de la distribución de Linux en particular que se está
usando, las ubicaciones o nombres exactos de estos archivos podrían ser levemente diferentes. No
obstante, usualmente todos llevarán a cabo las mismas funciones.
Archivos de Configuración para Servidores Específicos
Los archivos para servidores también están ubicados en el directorio /etc. Estos archivos controlan
programas que se ejecutan en segundo plano, más a menudo inadvertidos por el usuario. Estos
archivos están configurados usualmente para iniciar el servidor o cambiar su comportamiento en
alguna forma si el servidor ya se ha iniciado. Algunos de los servidores más importantes que usará
un administradores se muestran en la Figura .
295
Nuevamente, hay muchos otros servidores ubicados en /etc o en un subdirectorio de /etc. No
obstante, estos servidores son los más populares que se configurarán en un sistema Linux. Es
posible también que los archivos de configuración de los servidores estén ubicados en otros
directorios. Usualmente es fácil hacer coincidir un servidor en particular con el nombre hallado en el
directorio. Como puede apreciarse, como con el archivo httpd.conf por ejemplo, tiene sentido que
éste tuviera algo que ver con el servidor web.
Edición de los Archivos de Configuración
Comprender la diferencia entre archivos de configuración del usuario y del sistema y dónde se
ubican estos archivos es solamente el primer paso para poder administrar apropiadamente un
sistema Linux. Un administrador de un sistema Linux tendrá que editar apropiadamente estos
archvos para que éstos configuren apropiadamente un sistema Linux. No hay una forma de explicar
a alguien cómo editar cualquiera de estos archivos. Esto es porque dependiendo del sistema en sí,
el usuario, y muchos otros factores, cómo se editan estos archivos puede variar completamente de
un sistema a otro. Un mejor enfoque a tomar es explicar el formato de estos archivos y cómo todas
las líneas de los siguientes archivos de configuración cambiarán qué hará el sistema. Tomando este
enfoque, cualquier administrador de sistemas puede configurar estos archivos según sus propias
necesidades. Tenga en cuenta que estos archivos pueden editarse usando cualquier editor de texto
como vi y que más información puede hallarse sobre estos comandos observando sus páginas
man.
El Archivo /etc/inittab
El archivo /etc/inittab se describió en la sección anterior. Recuerde que el archivo /etc/inittab es
responsable de controlar procesos init, lo cual ejecuta los scripts de inicio en un sistema Linux. Hay
dos tipos de líneas que se encontrarán en los archivos /etc/inittab: líneas de comentario y líneas de
control. Las líneas de comentario son tipos típicos de líneas que se encontrarán en todos los scripts
de cualquier sistema operativo. Éstas son las líneas que se comentan usando un signo numeral (#).
Estas líneas se ignoran y no se procesan. Las líneas de control son las líneas que lee el programa.
Las líneas de control del archivo /etc/inittab se muestran en el siguente formato en las Figuras y
.
296
id:runlevel:action:process
Observe la Figura para ver que la parte de id del archivo se muestra en el formato n, donde n es
el nivel de ejecución (0-6). Esto representa la acción a tomar al pasar a un nuevo nivel de ejecución.
Refiérase a la Figura , para ver qué nivel de ejecución puede mostrarse usando un único nivel de
ejecución o múltiples niveles de ejecución y puede usarse aquí como 2345 para los niveles de
ejecución 2-5.
Hay diversas razones por las cuales un administrador necesitaría editar el /etc/inittab. Una de las
razones más comunes es cambiar el nivel de ejecución por defecto del sistema. Los niveles de
ejecución se tratarán en más detalle en la sección 10.3.6.
El Archivo /etc/fstab
Tal como se aprendió en la sección anterior, el archivo /etc/fstab proporciona acceso a particiones
de disco y a dispositivos de medios removibles. Linux soporta una estructura de directorios unificada
lo que significa que cada directorio está ubicado en algún lugar en relación a la raíz del árbol que es
/. Cualquier dispositivo o partición que se monta en un sistema Linux también se ubica en esta
estructura de directorios. Por ejemplo, los archivos de un cdrom que se monta pueden hallarse en el
directorio /mnt/cdrom. Los directorios ubicados fuera de esta raíz (/) pueden ser otras particiones,
discos o directorios. Un sistema Linux tratará a todos de la misma manera. El directorio /etc deberá
estar en el mismo directorio que la raíz pero otros directorios como los directorios home pueden
almacenarse en otra partición o disco en el cual no esté la raíz. El archivo /etc/fstab maneja esto
permitiendo a un sistema Linux saber dónde se ubican estos archivos para que puedan ser
accesibles al sistema operativo.
La estructura de /etc/fstab es como la muestra la Figura . Observe este archivo y note que hay
seis columnas separadas por espacios. Vea la línea comentada en la parte superior, que indica lo
que cada una de estas columnas representa. Nuevamente, cualquier línea que comience con un
signo numeral (#) será comentada e ignorada. Los significados de cada una de estas columnas se
muestran en la Figura .
297
10.3
Sistema de Archivos y Administración de Servicios
10.3.6 Administración de niveles de ejecución
Los niveles de ejecución se han mencionado en las secciones anteriores de este capítulo. Hasta
este punto todo lo que ha sido mencionado acerca de los niveles de ejecución es que controlan qué
conjunto predeterminado de programas se ejecutarán en el sistema cuando el sistema arranca. En
otras palabras, hay programas que solamente se ejecutan en niveles de ejecución específicos. En
qué nivel de ejecución se arranca el sistema determinará qué programas se cargan al sistema. La
misma regla se aplica aquí para los niveles de ejecución que para los archivos de configuración.
Como administrador, no es suficiente simplemente saber qué hacen los niveles de ejecución. El
conocimiento de cómo administrar eficazmente niveles de ejecución en un sistema Linux también
es necesario.
La administración apropiada de niveles de ejecución es un método que puede usar un
administrador de sistemas para cambiar qué servicios ofrece un sistema. Por ejemplo, un sistema
Linux puede configurarse para arrancar con dos configuraciones diferentes. Una configuración
podría ser con todos los servidores de red y la otra podría ser un conjunto más limitado de servicios
del sistema en el cual otras tareas como mantenimiento del sistema necesiten hacerse. En lugar de
tener que detener manualmente todos estos servicios, puede arrancarse con un nivel de ejecución
diferente y ninguno de los servidores del sistema se cargarían. Usar el sistema X Window es otro
ejemplo donde puede usarse el nivel de ejecución. Arrancar en una interfaz en modo texto o en una
interfaz GUI puede hacerse automáticamente arrancando con diferentes niveles de ejecución.
Cambio del Nivel de Ejecución
También se mencionó en secciones anteriores de este capítulo que el programa init controla los
niveles de ejecución en un sistema Linux. Las configuraciones que controlan cómo arranca el
sistema y en qué nivel de ejecución arrancar están almacenadas en el archivo /etc/inittab. El
programa init lee las configuraciones de este archivo y por lo tanto configura el nivel de ejecución
inicial del sistema.
Una vez que el sistema ha arrancado es posible cambiar el nivel de ejecución usando los
programas init o telinit. La sintaxis para estos dos comandos es la siguiente:
telinit niveldeejecución
init niveldeejecución
La mayoría de las veces, para nivel de ejecución, simplemente introduzca el nivel de ejecución al
que ha de pasarse, ya sea 0-6. No obstante, también hay unos pocos códigos que pueden
introducirse aquí en lugar de un número. Por ejemplo introducir S o s cambiará el nivel de ejecución
298
a modo de usuario único y Q o q leerá nuevamente el archivo /etc/inittab e implementará cualquier
cambio que se hayan hecho en el mismo.
Para averiguar cuál es el nivel de ejecución actual, use el comando runlevel. Este comando
mostrará el nivel de ejecución anterior del sistema, así como el nivel de ejecución actual.
Un parámetro de utilidad a usar con los programas telinit o init es -t tiempo. Esto retrasará el
cambio hasta el tiempo especificado. Este parámetro puede ser útil porque al cambiar de nivel de
ejecución muchos de los procesos del sistema se eliminarán. Inicialmente, los sistemas intentan
hacer esto mediante el comando SIGTERM. El comando SIGTERM permite a un programa
administrar su propio proceso de cerrado, haciéndolo por lo tanto de manera segura. No obstante,
si el proceso no se cierra, el sistema usará el comando SIGKILL que inmediatamente finalizará el
proceso y podría ocasionar daño al sistema. Usar el parámetro -t tiempo puede retrasar el proceso
durante un tiempo para dar a todos los procesos del sistema tiempo para cerrarse por sí mismos.
Cambiar al nivel de ejecución 0 es un caso especial porque requiere apagar la computadora y
detenerla. Dependiendo de la distribución de Linux que se esté usando, cambiar a nivel de
ejecución 0 apagará el sistema así como toda la alimentación del mismo donde sea seguro apagar
manualmente la alimentación. Pasar a nivel de ejecución 0, para apagar el sistema, puede hacerse
mediante los comandos telinit o init. No obstante, se recomienda usar el comando
shutdown en cambio por las muchas opciones que brinda. La sintaxis para el comando shutdown
es:
shutdown [-t sec] [-arkhcfF] time [warning-message]
Estos parámetros para el comando shutdown se explican en la Figura
.
Cambiar el Nivel de Ejecución por Defecto
Cambiar el nivel de ejecución por defecto en un sistema Linux permanentemente es un proceso
muy simple. Simplemente involucra editar el archivo /etc/inittab. Específicamente, la línea
id:3:initdefault:. Esta línea indica a un sistema que está configurado para el nivel de ejecución tres
(3) por defecto. Para cambiar esto, simplemente cambie el 3 por el nivel de ejecución deseado en
el que ha de arrancar el sistema. Despues de hacer este cambio, use el comando init q para
escanear el archivo /etc/inittab e implementar el cambio.
299
10.3
Sistema de Archivos y Administración de Servicios
10.3.7
Documentación de la configuración de un sistema Linux
Un paso muy importante a recordar para cualquier administrador, al cambiar cualquier tipo de
configuración en un sistema Linux, es documentar los cambios que se han realizado. La
documentación es un paso extremadamente importante, especialmente al administrar un sistema
Linux. Como se aprendió a lo largo de los pasos anteriores, la mayor parte de todas las
configuraciones Linux tienen lugar editando los diversos archivos de configuración. Puede ser
imposible seguir el rastro de todos los cambios que se han hecho en un sistema sin mantener una
buena documentación. Sin una documentación apropiada, los cambios que se han efectuado
pueden olvidarse, lo cual puede conducir a problemas en el futuro. Una documentación apropiada
ahorrará tiempo valioso al detectar problemas en el sistema posteriormente. Por ejemplo, si los
cambios en la configuración se hicieron en un script de inicio para lanzar un servidor al inicio,
entonces posteriormente un servidor se actualiza o reemplaza sin actualizar la configuración del
script de inicio, serios errores podrían resultar, haciendo que el sistema no pueda iniciar. La
documentación apropiada del sistema habría ahorrado mucho tiempo y problemas. Los cambios de
configuración que se hicieron podrían haber sido vistos y luego cambiados de acuerdo a ello.
Log de Mantenimiento del Sistema
Muchos administradores mantienen un log para administradores en el cual mantienen registro de
todos los cambios de configuración que hacen en sus sistemas. En general es una buena regla
mantener un log del administrador en un cuaderno que puede escribirse y no electrónicamente en
una computadora. Esto hace fácil la referencia, pero también lo hace disponible incluso si la
computadora en la cual se almacena se cae.
Hay varias cosas importantes que documentar en un log del administrador. Unos pocos de estos
ítems son los siguientes, pero esto puede ser diferente dependiendo de la red y la configuración del
sistema.
·
·
·
·
·
·
Configuración inicial
Instalaciones de paquetes
Ediciones de los archivos de configuración
Cambios en el sistema de archivos
Recompilaciones del kernel
Cambios en el hardware
Configuración Inicial
Es importante documentar cómo estaba configurado originalmente el sistema durante el proceso de
instalación. Esto puede incluir cosas como el hardware que se instaló en el sistema. Además,
incluya cualquier configuración de hardware que se haya hecho, cualquier información sobre el
disco rígido como esquemas de particionamiento, el número de versión de la distribución de Linux,
y también qué opciones de instalación se instalaron, como los paquetes.
Instalaciones de Paquetes
Es importante registrar qué paquetes de software se instalaron en el sistema. Esto es
especialmente importante si los paquetes instalaron son tarballs o si el paquete se ha compilado
manualmente. No se mantiene ninguna base de datos de estos paquetes, por lo cual es importante
tener una.
Ediciones de los Archivos de Configuración
Han habido muchos archivos que se han tratado en este capítulo que requieren efectuar ediciones
de configuración. Es una buena idea mantener un registro de estos cambios en el libro log. Si el
cambio es pequeño, escribir el cambio exacto que se efectuó está bien. Si fue un gran cambio en el
archivo de configuración, usualmente lo mejor es escribir una descripción general de qué cambio se
efectuó.
300
Cambios en el Sistema de Archivos
A menudo hay muchos cambios que deben efectuarse en el sistema de archivos. Estos cambios
podrían ser archivos o directorios que es necesario mover o cuando el sistema de archivos necesita
un cambio de tamaño.
Recompilaciones del Kernel
Si y cuando el kernel Linux necesita recompilarse o actualizarse, siempre es una buena idea hacer
notas acerca de los cambios. Estos cambios deberán incluir el número de versión, cualquier función
que se agregó o eliminó, así como el nombre del nuevo Kernel.
Cambios en el Hardware
Cada vez que se hace cualquier cambio en el hardware, es importante tomar notas de los cambios
que se harán en el archivo /etc/fstab para el disco rígido y para las configuraciones del servidor X
con la placa de video.
El libro log deberá ser fácilmente accesible pero también deberá almacenarse en un lugar seguro.
La documentación de los cambios de configuración ahorrará tiempo a un administrador al hacer
actualizaciones e instalar cualquier nuevo hardware o software. Esta práctica es invalorable para
cualquier buen administrador de sistemas.
Copia Backup del Directorio /etc
Otro medio de documentar cualquier cambio de configuración es hacer un backup de todo el
directorio /etc. Usando el comando tar es posible hacer un backup del directorio /etc en cualquier
dispositivo montado. Hacer esto esencialmente preserva una copia de la documentación del
sistema. Esto puede usarse para ir hacia atrás y usarse como referencia para ver qué cambios en
la configuración se han efectuado. La sintaxis de comandos para ello se muestra en la Figura .
En este ejemplo, en lugar de xxxx, coloque cualquier dispositivo en el que se hizo el backup. Hacer
un backup de todo el directorio /etc es a veces una buena idea para hacerlo antes de hacer
cualquier cambio extensivo en la configuración. De esta forma, si se comete un error el antiguo
directorio siempre puede restaurarse del backup.
Tenga en cuenta no obstante, que este método no es un sustituto de mantener un log de
mantenimiento. Es solamente otro medio de ayuda al efectuar cambios en la configuración.
Mantener un log puede conducir directamente a un cambio de configuración que se efectuó. No
obstante, si había solamente un backup, todos esos archivos deberán analizarse para hallar el
cambio de configuración que se efectuó.
301
10.4
Daemons
10.4.1
Introducción a los daemons Linux
Podría no ser enteramente correcto llamar a todos estos procesos de Red/NOS, servicios. Tal vez
un término más genérico, independiente del sistema operativo sería más correcto. Esto se debe a
que si los usuarios se refieren a estas funciones como servicios, están usando el término que
Microsoft usa para referirse a estos procesos de red. Si los usuarios estuvieran usando Linux, se
referirían a estos servicios como daemons. Novell se refiere a estos servicios como Módulos
Descargables Netware (NLMs). Servicios, daemons y NLMs todos llevan a cabo esencialmente las
mismas tareas. Permiten al sistema operativo proporcionar funciones como Internet, archivos
compartidos, intercambio de correo, servicios de directorio, administración remota, y servicios de
impresión. No obstante, funcionan un tanto diferentemente en Windows en oposición a Linux o
Novell.
Las funciones que se denominan servicios en Windows y Módulos Descargables Netware (NLMs)
en Novell se denominan daemons en Linux. Ejemplos de daemons Linux son FTPD y HTTPD. Los
daemons no están integrados al sistema operativo como los servicios lo están en Windows. Los
daemons se ejecutan como procesos en segundo plano. Se ejecutan continuamente sin producir
ninguna salida visible. Por ejemplo, el daemon FTP (FTPD) se ejecutará en segundo plano. A
medida que procesa solicitudes entrantes, enviará los archivos según sea necesario, pero no
mostrará nada en la pantalla. Las actividades de los daemons se registran en un archivo log.
Muchos daemons pueden ejecutarse en un sistema Linux en cualquier momento determinado. Hay
varios daemons Linux comunes:
·
·
·
·
HTTPD Este daemon es responsable de las solicitudes del navegador web.
Inetd Este daemon esperará que se haga una solicitud entrante y luego envía esa solicitud
al daemon apropiado.
Crond Este daemon ejecutará scripts en un momento especificado.
Syslogd Este daemon registrará información acerca de programas en ejecución
actualmente al archivo log del sistema.
Los daemons pueden cargarse o descargarse de la memoria en cualquier momento. También
pueden reiniciarse sin tener que reiniciar todo el sistema. La Figura muestra un ejemplo del
daemon xinetd.d siendo iniciado. Con Microsoft, el sistema debe reiniciarse cuando se instala una
aplicación o servicio. Pero Novell y Linux pueden cargar, descargar y reiniciar un daemon o NLM
sin requerir que un administrador reinicie el sistema.
302
10.4
Daemons
10.4.2
Inicio, detención y reinicio de daemons
Antes de entrar en descripciones y ejemplos de daemons específicos de Linux y cómo
configurarlos, primero es necesario aprender cómo iniciar o detener estos servicios. Cuando un
sistema Linux está funcionando e incluso cuando no hay nada en la pantalla excepto un prompt de
inicio de sesión, aún hay varios programas y servicios en continua ejecución. Algunos de ellos son
simples programas que manejan cosas tales como prompts de inicio de sesión basados en texto.
Hay otros servicios más complejos que se están ejecutando que hacen el sistema disponible para
otros sistemas exteriores. En un sistema operativo Linux, muchos de estos servicios que se inician
y detienen se denominan daemons. Estos daemons necesitan iniciarse de alguna manera y en
ciertas ocasiones incluso necesitan ser detenidos o reiniciados. Linux proporciona varias formas
diferentes de configurar un sistema para que inicie daemons o programas.
Uso de Scripts Sys V para Iniciar y Detener Servicios y Daemons Linux
Los scripts Sys V pueden usarse para iniciar, detener o reiniciar daemons Linux. Los scripts se
ubican en directorios en particular, más comúnmente en los directorios /etc/rc.d/init.d o /etc/init.d.
Para ejecutar estos scripts, necesitan ir seguidos por opciones tales como start, stop o restart. La
opción status puede usarse en algunos scripts también para obtener feedback acerca de en qué
estado actual se encuentra el daemon. Por ejemplo, el siguiente comando reiniciará el daemon
Apache Web server en un sistema Red Hat 7.2.
# /etc/rc.d/init.d/httpd restart
Si por alguna razón este script es ejecutado y si devuelve un mensaje de Fallido [Failed], indica que
hay algo mal en la configuración.
Hay algunas cosas que es importante saber al iniciar o detener manualmente un daemon de esta
manera.
Primero, dependiendo de qué distribución de Linux se está usando, el nombre exacto del script
puede ser levemente diferente. Por ejemplo, en algunas distribuciones el servidor Samba usa el
script smb y en otras, usa el script samba para iniciar, detener o reiniciar el daemon Samba. Otra
instancia en la cual el nombre del script de inicio podría no estar estandarizado es cuando hay
scripts que llevan a cabo operaciones complejas que comienzan varios otros programas junto con
el programa o daemon que se pretende que se inicie con el script. El script Network o Networking
es un ejemplo que se incluye en algunas distribuciones que se usa para inicializar muchas
funciones de red.
Segundo, los scripts de inicio Sys V están diseñados para ser ejecutados en distribuciones
particulares de Linux. Un script de inicio Sys V de Red Hat no funcionará en otras distribuciones de
Linux.
Tercero, se mencionó antes qué indica un mensaje Failed cuando se ejecuta el script. No obstante,
a veces un script se ejecutará y parecerá estar funcionando correctamente incluso aunque no está
operando correctamente. Si el daemon no está funcionando apropiadamente verifique el archivo
log, usualmente localizado en el archivo /var/log/messages. Este archivo log puede proporcionar
alguna indicación respecto a qué errores se están generando.
Cuarto, siempre es una buena idea leer la documentación específica del daemon para las
diferentes opciones que reconoce el script. Esto se debe a que algunos scripts soportan diferentes
opciones que otros. Por ejemplo, algunos daemons necesitan reiniciarse cuando se ha efectuado
un cambio en la configuración. Para hacer esto, simplemente ejecute el script con la opción de
reinicio. Algunos scripts no necesitan reiniciarse sino que necesitan detenerse completamente y
luego volverse a iniciar. Algunos daemons tienen comandos que simplemente releen la
303
configuración sin tener que reiniciarlos.
Iniciar o Detener un Daemon o Servicio de Forma Permanente mediante scripts Sys V
Para poder iniciar o detener eficazmente un servicio o daemon que se ejecuta en un sistema Linux,
es necesaria una buena comprensión de qué son los niveles de ejecución. Comprender cómo los
niveles de ejecución pueden usarse para controlar qué servicios, programas y daemons carga
automáticamente el sistema cuando inicia también es necesario. Refiérase a la sección 10.3.5 para
repasar niveles de ejecución.
También se mencionó anteriormente en esta sección que los scripts de inicio Sys V que se usan
para iniciar, detener y reiniciar temporalmente los daemons están ubicados en los directorios
/etc/rc.d/init.d o /etc/init.d. También hay varios directorios dentro de la estructura de directorios
Linux que contienen vínculos simbólicos a estos scripts. Estos vínculos simbólicos están asociados
a los diferentes niveles de ejecución. Cuando un sistema Linux se arranca en un nivel de ejecución
específico, estos vínculos simbólicos que están asociados a un nivel de ejecución específico, hacen
referencia a los scripts Sys V para que carguen servicios, programas y daemons de manera
permanente. Estos directorios que contienen los vínculos simbólicos se denominan por lo común
/etc/rc.d/rcx.d o /etc/rcx.d. La x es el número de nivel de ejecución especificado, que se trató en la
sección 10.3.5. Los vínculos simbólicos de estos directorios contienen archivos que ejecutan los
scripts Sys V cuando el sistema arranca en el nivel de ejecución correspondiente. Estos nombres
de archivo asumen la forma Kxxdaemon o Sxxdaemon, donde xx es un número de dos dígitos y
daemon es el nombre del daemon. Cuando el sistema introduce un nivel de ejecución especificado
los scripts Kxxdaemon y Sxxdaemon se ejecutan y los daemons o servicios que comienzan con S
reciben el comando start. Los scripts que comienzan con K reciben el comando stop. Por lo
tanto, daemon y servicios pueden iniciarse o detenerse con facilidad permanente y
automáticamente cuando el sistema arranca, renombrando estos scripts en los directorios de
vínculos simbólicos con una S o una K. El número de dos dígitos representa el orden en el cual los
daemons o servicios se inician o detienen. El sistema ejecutará los scripts con el número más bajo
primero. Esto puede ser importante porque algunos servicios deberán iniciarse o detenerse antes
que otros. Por ejemplo, el daemon del servidor web Apache deberá iniciarse después de que los
servicios básicos de networking se hayan iniciado.
Los Archivos xinetd.conf y xinetd.d
Los scripts Sys V son ideales para ejecutar daemons y servicios que necesitan estar ejecutándose
constantemente. No obstante, ejecutar estos daemons y servicios de forma permanente, consumen
valiosos recursos del sistema y memoria incluso cuando no están siendo usados. El archivo
xinetd.d es lo que se denomina un super-servidor. El concepto principal detrás de los superservidores es escuchar solicitudes para cualquiera de los daemons y servicios del servidor. Luego,
cargar el daemon o servicio en la memoria solamente cuando se ha hecho una solicitud y está en
uso. Hasta que la solicitud se haya hecho, el daemon no estará ejecutándose ni consumirá nada de
memoria. Un problema con la disposición del super-servidor es que puede tomar un poco más de
tiempo acceder al servidor. Esto se debe a que el daemon o servicio necesita cargarse en la
memoria primero. Los dos tipos de super-servidores que se usan en Linux son inetd.d y xinetd.d.
Este curso trata solamente xinetd.d porque éste es el super-servidor que se usa en Red Hat 7.2.
Red Hat usaba inetd.d antes de pasarse a xinetd.d. El super-servidor xinetd.d proporciona
funciones de seguridad adicionales que son similares a los wrappers TCP. Recuerde que los
wrappers TCP se trataron en capítulos anteriores. El archivo xinetd.conf, que se muestra en la
Figura , es el archivo de configuración que controla a xinetd.d. El archivo xinetd.conf contiene
configuraciones y directivas a archivos que están almacenados en /etc/xinetd.d. Cada daemon y
servicio que haya sido configurado para ejecutarse instalará un archivo en /etc/xinetd.d con sus
propias opciones de configuración. Las siguientes secciones describen cómo configurar servidores
individuales para ejecutarlos usando xinetd.d.
304
Uso de Scripts de Inicio Personalizados
Hay otra forma de iniciar automáticamente un daemon o servicio cuando el sistema arranca.
Colocando el texto apropiado en el script /etc/rc.d/rc.local, es posible iniciar cualquier daemon o
proceso. Este script se ejecuta después de que los scripts de inicio Sys V se ejecutan y carga lo
que se especifica en este script. Este método puede ser práctico para su uso cuando el desempeño
es un problema o cuando el daemon o servidor no pueden ejecutarse en un script de inicio Sys V.
Por ejemplo, para iniciar el servidor web Apache en el script /etc/rc.d/rc.local, que se muestra en
la Figura , coloque la siguiente línea en el archivo:
/etc/rc.d/init.d/httpd start
Es importante comprender que iniciar y ejecutar un daemon o servicio de esta forma no
proporciona ningún medio para detener el servicio como puede hacerse usando el comando stop.
La única forma de detener un daemon que ha sido iniciado colocando una entrada en el script
/etc/rc.d/rc.local es usar los comandos kill o killall después de localizar el número de ID del
proceso (PID) usando el comando ps.
10.4
Daemons
10.4.3
HTTP
El NOS Linux no es capaz de proporcionar el daemon HTTP a los usuarios. En cambio, un
programa de web-hosting separado y extremadamente popular llamado Apache es la solución
común. Apache proporciona los mismos daemons HTTP para Linux que la herramienta Servicios
de Información de Internet (IIS) proporciona para Windows 2000. La diferencia entre las dos
305
implementaciones es que la configuración basada en texto CLI de Apache difiere de las opciones
manejadas con menúes de Windows 2000. Además, Apache tiende a ser mucho más complejo,
proporcionando un nivel más profundo de personalización y potencia a los administradores de
sistemas. Una configuración típica del servidor web Apache se muestra en la Figura . Note cómo
el gráfico demuestra cómo cualquier usuario que ejecute cualquier sistema operativo puede
acceder al servidor web. No tiene que estar ejecutando un sistema Linux para acceder al daemon
del servidor web Apache porque el servidor web Apache es accedido mediante el protocolo HTTP,
que es independiente del sistema operativo.
La complejidad adicional de Apache requiere a menudo un sólido conocimiento de web hosting y
temas de seguridad antes de que los administradores del sistema intenten configurar su servicio
HTTP para Linux. El proceso de configuración tiene lugar editando cuatro archivos de configuración
httpd.conf, srm.conf, access.conf, y mimes.types. Éstos se encuentran en el directorio /conf de la
instalación de Apache. Estos archivos contienen todas las configuraciones de inicialización para
Apache, como los tipos de datos a servir y las estructuras de directorios web. Solamente
administradores de sistemas experimentados deberían intentar editar estos archivos en un servidor
web, ya que una configuración inapropiada podría crear "agujeros" de seguridad en el sistema.
Apache, como Linux, está disponible para su descarga sin costo para los usuarios. Apache está
disponible en http://www.apache.org. Diferentes versiones del programa se configuran,
empaquetan y envían con la mayoría de las opciones populares de Linux, como Red Hat Linux. En
tales casos, Linux inicia Apache automáticamente y el servicio HTTP (HTTPD) además de otros
daemons como FTP (FTPD) cada vez que arranca el sistema.
A los usuarios de un sistema Linux habilitado para HTTP se les da típicamente un directorio
especial dentro de su directorio home para colocar archivos web públicos. Este directorio a menudo
se llama "public_html" y se convierte automáticamente en el directorio web raíz del usuario. Un
ejemplo de esta página se muestra en la Figura . Por ejemplo, si un usuario llamado jdoe existe
en un sistema Linux con una dirección IP de 123.45.67.90, el usuario tendría también una dirección
web por defecto:
http://123.45.67.90/~jdoe
306
A los directorios o archivos ubicados en el directorio public_html se les otorga los permisos
apropiados, la categoría "otros" debe tener permisos de lectura y/o ejecución, y son también
visibles por Internet. Por ejemplo, un subdirectorio llamado "images" y un archivo dentro de él
llamado "mom.jpg" sería visible en la siguiente dirección web:
http://123.45.67.90/~jdoe/ images/mom.jpg
10.4
Daemons
10.4.4
FTP
Aunque el servicio FTP de Windows 2000 puede o no estar disponible por defecto, el servicio FTP
de Linux no necesita configuración. Esta configuración se encuentra en /etc/rc.d/init.d/xinetd con la
línea mostrada en la Figura .
Si un administrador de sistemas desea inhabilitar el servicio, un signo numeral (#) puede ubicarse
al principio de la línea. De otro modo, Linux inicia automáticamente el daemon FTP (FTPD) durante
el proceso de inicio, y los usuarios pueden usar FTP remotamente a la máquina en cualquier
momento.
307
Al iniciar sesión en una máquina Linux usando FTP, los usuarios a menudo son llevados
inmediatamente a su directorio home. En otros casos, los administradores de sistemas
pueden crear un directorio especial para que sirva como punto de entrada al sistema para
todos los usuarios. Este directorio raíz virtual aparece ante los usuarios FTP en la parte
superior de la estructura de directorios del sistema y no permite un acceso más alto dentro
del sistema. Implementar este método proporciona a un administrador de sistemas mayor
control sobre los datos y proporciona una seguridad del sistema más estrecha. También
proporciona una ubicación central para crear directorios públicos donde los datos puedan
compartirse libremente entre usuarios FTP. Recuerde que las mismas pertenencias y
permisos de archivos y directorios se aplican en el entorno FTP que los que se aplican en
cualquier otro entorno Linux. Por ejemplo, los usuarios que desean obtener un archivo
remoto ubicado en un directorio específico deben tener permisos de usuario, grupo u otros
para ese directorio. De otro modo, el acceso al directorio se denegará de manera muy
similar a como se denegaría en un prompt de comandos estándar de Linux.
10.4
Daemons
10.4.5
Telnet
Telnet permite a un usuario remoto iniciar sesión en un sistema con el propósito de emitir
comandos y acceder a archivos usando una Interfaz de Línea de Comandos (CLI). Telnet fue
desarrollado para que los usuarios finales puedan acceder a potentes mainframes desde terminales
bobas. Hoy, los administradores usan Telnet para administrar remotamente servidoresde red,
impresoras y otros dispositivos. La Figura ilustra un usuario remoto que está usando Telnet para
administrar dispositivos remotos.
La conveniencia de administrar remotamente un sistema no se obtiene sin precio. Configurando un
NOS para que acepte conexiones Telnet, los administradores crean un problema potencial de
seguridad. Telnet debe configurarse de modo tal que solamente los usuarios autorizados puedan
acceder al servidor.
Establecer una contraseña a menudo no es suficiente. Cuando se configura un daemon, como
Telnet, el servidor se ve forzado a escuchar solicitudes. Al descubrir que un servidor está
escuchando solicitudes Telnet, un hacker puede intentar usar la fuerza bruta para irrumpir en el
sistema. Un ataque de fuerza bruta puede involucrar el uso de un programa que adivina la
contraseña, usando un diccionario como fuente de sus adivinaciones.
308
Incluso si un hacker no puede irrumpir en el sistema usando la fuerza bruta, un servidor en escucha
puede aún ser vulnerable a ataques de Denegación del Servicio (DoS). Un ataque DoS por lo
común involucra la inundación de un servidor con solicitudes falsas, evitando que el servidor
responda a fuentes legítimas.
El protocolo Telnet en sí no es especialmente seguro. Por ejemplo, Telnet envía nombres de
usuario y contraseñas en texto claro, que puede ser leído por otros hosts de la red. Una alternativa
más segura a Telnet es Secure Shell (SSH). Muchas organizaciones implementan SSH en lugar de
daemons Telnet porque SSH cifra las contraseñas y proporciona otras funciones de seguridad.
La mayoría de los sistemas UNIX ejecutan daemons Telnet por defecto. No obstante, a causa de
los problemas de seguridad arriba anotadas, el administrador debe habilitar Telnet manualmente en
Red Hat Linux 7. Configurar daemons Telnet en Red Hat Linux y Windows 2000 se trata en las
siguientes secciones.
Hay un comando CLI estándar para abrir una conexión Telnet a una computadora remota:
telnet hostname | IP_address
Por ejemplo:
telnet computer.company.com
o
telnet 123.45.67.90
10.4
Daemons
10.4.6
Protocolo Bloque de Mensaje de Servidor (SMB)
El protocolo Bloque de Mensaje de Servidor (SMB) está diseñado para ser un protocolo para
compartir archivos. Ha sido renombrado Sistema Común de Archivos de Internet (CIFS) pero aún
se usa para compartir archivos e impresoras. Este protocolo se utiliza para permitir que sistemas no
Linux ni UNIX monten sistemas de archivos e impresoras Linux en la red. El protocolo SMB permite
que un cliente Windows haga esto de la misma forma en que si estuviera conectado a otro sistema
Windows. Esto proporciona una forma fácil para que los sistemas clientes que corran windows
accedan a un archivo o un servidor de impresión Linux.
Linux incluye una herramienta para hacer esto llamada Samba que proporciona al sistema Linux la
capacidad de interactuar con los sistemas Windows que usan SMB/CIFS. Samba viene con todas
las principales distribuciones de Linux..
309
Samba usa dos programas clientes llamados smbclient y smbmount. El smbclient es un programa
que permite que otro cliente Linux o UNIX acceda a compartidos en un sistema Linux o Windows
usando un inicio de sesión e interfaz en modo texto. Si server es el nombre del servidor samba
Linux a ser accedido y share es la unidad o directorio a ser accedido, escriba smbclient
//server/share. El smbclient usa el nombre de sesión como nombre de usuario pero aún se
necesitará ingresar una password para acceder al compartido. Una vez autenticado, use comandos
para transferir archivos y obtener listados de archivos y directorios de la misma forma en que si
estuviera conectado usando FTP con los comandos dir, get, y put.
El programa smbclient es muy útil cuando se está restringido a una interfaz en modo texto. Sin
embargo, SMB/CIFS se pensó para brindar acceso directo para compartir archivos y usando el
utilitario smbmount. Éste realmente montará el compartido en Linux. La sintaxis es similar al
comando smbclient. Por esta razón, la ubicación del punto de montaje necesita ser agregada al
comando. Escriba smbmount//server/share/mnt/xxx, donde xxx es la ubicación del compartido de
Linux. Usar el utilitario smbmount tiene muchas ventajas en que monta el compartido directamente
sobre el sistema para que el usuario pueda accederlo como si estuviera en una unidad local. El
usuario puede abrir un documento, editarlo, y luego grabarlo en el servidor.
Otra forma de acceder a un compartido SMB/CIFS es usar el comando mount para montar el
compartido smb. El tipo de sistema de archivos smbfs necesitará ser especificado con el comando
mount. La sintaxis para el comando es la siguiente:
# mount –t smbfs// server/share/mnt/xxx
El servidor Samba se configura con el archivo smb.conf que está ubicado en /etc/samba. La
configuración predeterminada de Samba funcionará. Sin embargo, hay un par de items que podría
necesitar configurar antes de que Samba funcione por completo. Primero, si el sistema cliente es
parte de un grupo de trabajo o dominio, este nombre de grupo de trabajo o dominio debe ser listado
en el archivo smb.conf con el parámetro workgroup. Segundo, alguna versión nueva de Windows
usa passwords encriptadas pero lo predeterminado de Samba para eso es usar passwords
encriptadas. Si se está usando una versión de Windows que utiliza passwords encriptadas,
entonces fije el parámetro encrypt passwords en yes en el archivo smb.conf. Luego, para agregar
una password para el usuario, use el comando smbpasswd. La sintaxis para este comando es la
siguiente:
# smbpasswd –a jsmith
Esto fijará una password encriptada para jsmith. Luego, finalmente defina cuál será el
compartido en el sistema Linux. La configuración predeterminada permite que los usuarios
accedan a sus directorios principales. Puede encontrar más información en
http://www.samba.org y hay libros completos que sólo hablan del servidor Samba.
10.4
Daemons
10.4.7
NFS (Sistema de Archivos de Red)
Similar al protocolo SMB/CIFS, NFS se usa como medio para compartir archivos entre varios
sistemas informáticos conectados en una red. No obstante, la principal diferencia con NFS es que
está diseñado para funcionar en sistemas UNIX. Puesto que la arquitectura de los sistemas Linux
semejan mucho la de los sistemas UNIX, NFS puede usarse para intercambiar archivos entre
310
sistemas Linux conectados mediante una red y es realmente el método preferido para compartir
archivos entre sistemas Linux.
NFS es el método preferido para compartir archivos entre sistemas Linux y UNIX. Esto se debe a
que los sistemas clientes pueden acceder a partes compartidas NFS en un servidor de archivos
NFS con utilidades de acceso a archivos Linux. Por ejemplo, para acceder a una parte compartida
NFS desde una estación de trabajo cliente, el usuario solamente necesita montar la ubicación de la
parte compartida usando el comando mount. Este comando se ha tratado a lo largo de todo este
capítulo así como en la sección anterior, SMB. Usando este comando, los sistemas cliente Linux
pueden acceder a partes compartidas NFS en el servidor de archivos y usar la parte compartida
como si estuviera almacenada localmente en su sistema. La sintaxis usada desde la estación de
trabajo cliente para montar la parte compartida NFS es la siguiente:
# mount /mnt/xxx
Para desmontar la unidad un usuario tipearía:
# umount /mnt/xxx
Hay algunos pasos que el administrador debe dar antes de que el usuario pueda montar la parte
compartida NFS así de fácilmente. Las partes compartidas necesitan montarse en un servidor de
archivos y hacerse disponibles primero. Esto se hace usando el comando mount también pero la
sintaxis es levemente diferente. La sintaxis para este comando es la siguiente:
# mount server:/home/jsmith/mnt/xxx
En este comando, reemplace server con el nombre de host del servidor. Las xxx son la ubicación
de la parte compartida en el servidor de archivos. Tenga en cuenta que los usuarios regulares no
podrán usar el comando mount por defecto. Recuerde que editando el archivo /etc/fstab es posible
habilitar un comando normalmente sólo disponible para la cuenta raíz para que sea utilizado por
cuentas de usuario regulares. Específicamente, la siguiente línea necesitaría agregarse a este
archivo:
server:/home/jsmith/mnt/xxx nfs user,noauto,exec 0 0
Agregando este archivo, cualquier usuario podría montar y desmontar la parte compartida NFS
usando los comandos mencionados anteriormente. Otras opciones para agregar esta línea al
archivo /etc/fstab es dejar la sección no automática del usuario. Esto montaría automáticamente la
parte compartida cada vez que el sistema arranca. No hay contraseña que tenga que usarse para
acceder a la parte compartida. El servidor se basa en la seguridad del lado del cliente para
controlar el acceso a la parte compartida.
10.4
Daemons
10.4.8
Cliente de Correo
Al configurar el e-mail en el sistema Linux, el administrador tendrá una amplia variedad de
opciones. El tipo de e-mail seleccionado dependerá de si el módem de conexión telefónica se usa
para acceder al ISP o si hay una conexión permanente a Internet usando una conexión LAN. La
311
forma en la cual los usuarios envían y reciben e-mail determinará qué configuración se elige para
configurar e-mail en un sistema Linux.
Para configurar el daemon de e-mail en Linux, el administrador necesitará configurar un agente de
usuario de correo, también conocido como mailer, el agente de transferencia de correo (MTA), y el
protocolo de transporte. El mailer proporciona al usuario una interfaz para leer y componer
mensajes. El mailer usa el MTA para transferir el correo desde el emisor al destinatario y viceversa.
El MTA usa un protocolo de transferencia para hacer la transferencia.
Cuando se configura correo en un sistema Linux, el administrador primero necesitará seleccionar
qué tipo de MTA usar. Los dos MTAs importantes son SMTP y Sendmail. Una vez que el MTA está
configurado y el protocolo es determinado, debe configurarse un mailer. Un ejemplo sería IMAP o
POP3. Hay varios mailers populares de los cuales elegir, como Elm, Pine o Netscape Messenger.
10.4
Daemons
10.4.9
Impresión en un entorno Linux
La configuración de impresoras en un entorno Linux puede ser una tarea muy complicada porque
requiere conocimientos de edición y configuración de archivos de impresión específicos. No es un
proceso paso a paso como con un sistema Windows 2000. La configuración puede ser muy
complicada porque es necesario saber los comandos y textos que se deben ingresar en el archivo
apropiado. El proceso funciona en forma similar a Windows 2000 pero no es tan directo. Una
impresora puede ser configurada localmente, o un servidor de impresión puede ser configurado
para que administre los pedidos de impresión y envíe esos pedidos hacia la impresora apropiada.
Componentes de la impresión en Linux
Al igual que con otros sistemas operativos configurados como servidores de impresión, el
componente principal de la impresión en Linux es la cola de impresión. La cola de impresión es lo
que reside en un servidor de impresión Linux que manipula todas las tareas de impresión entrantes
dirigidas a las impresoras en red. Las colas de impresión pueden ser configuradas en una variedad
de formas en el servidor de impresión. Normalmente, habrá una cola de impresión por cada
impresora a la que esté sirviendo el servidor de impresión. Sin embargo, es posible configurar
múltiples colas de impresión para una impresora. Esto es útil cuando hay una cola que imprime
hojas de un solo lado y otra cola que imprime las hojas doble faz.
El utilitario Linux que se usa para imprimir se llama lpr. Este comando puede ser ingresado
manualmente en la línea de comando para especificar una tarea de impresión que se quiere enviar
a la cola de impresión u otros programas pueden llamar a este comando para que les permita
imprimir archivos. El programa Daemon de Impresora en Línea (lpd) es el que administra las colas
de impresión en un servidor de impresión Linux. Cuando lpr o computadoras remotas envían un
pedido de impresión a una cola, el programa lpd acepta la tarea de impresión, y la dirige hacia la
312
impresora correcta. El programa lpd también monitorea las colas de impresión y además dirige las
tareas de impresión desde las colas de impresión hacia las múltiples impresoras. Para realizar esto,
el programa lpd usa el archivo de configuración /etc/printcap, que será tratado en la sección
siguiente.
Otro aspecto importante a saber sobre la impresión con un sistema Linux es que a veces puede ser
difícil de trabajar con ella porque es esencialmente unidireccional. Esto significa que las tareas de
impresión se originan en una aplicación y son enviadas a ciegas a la impresora sin saber el tipo de
impresora a la que se está enviando el trabajo. Linux envía sus tareas de impresión usando el
lenguaje de impresora PostScrip, sin embargo no todas las impresoras son capaces de manipular
el lenguaje Postscript.
El archivo de configuración /etc/printcap
Cuando se configura el servidor de impresión Linux, que a menudo será en un entorno de trabajo,
el administrador necesitará conocer el sistema de spooling de impresión LPRng. El software LPRng
proporciona el servidor con la capacidad de manipular múltiples impresoras y colas además de
proporcionar la seguridad que será necesaria en una red grande. Cuando una tarea de impresión
es enviada al servidor, el daemon de impresora en línea (lpd) procesará el pedido. El otro
componente principal del Software LPRng es el archivo /etc/printcap. Un ejemplo de este archivo
de configuración se muestra en la Figura . Este es el archivo que se edita para definir las
impresoras en la red. Al usar las entradas del archivo /etc/printcap, Linux sabrá cuáles impresoras
están en línea y disponibles para imprimir. El procedimiento recomendad para editar el archivo
printcap es usar el comando printtool, un administrador de sistema de impresión. El comando
printtool será tratado más tarde. Estos pasos son las tareas más complicadas cuando se
administra un servidor de impresión. La edición correcta de estos archivos permitirá al
administrador especificar cosas como permisos y seguridad en una impresora.
Como administrador de sistemas, va a ser importante saber cómo editar el archivo /etc/printcap .
Esto es así porque ése es el archivo que está en el núcleo del software de impresión LPRng. Este
archivo puede ser usado para configurar múltiples impresoras en él, sin embargo se deben usar
diferentes nombres de impresora. Los componentes del archivo /etc/printcap son mostrados en la
Figura .
313
Después de hacer cambios en este archivo, el daemon de impresora necesitará ser reiniciado.
Tenga presente que es mucho más fácil y más común configurar una impresora con el utilitario de
interfaz GUI printtool. Sin embargo, es importante que cualquier administrador comprenda lo que
hacen todos estos componentes del archivo /etc/printcap. Esto es así porque permite que un
administrador haga cualquier cambio que pudiera necesitar hacer que esté disponible usando la
herramienta GUI. Además, como no todas las distribuciones Linux usan una interfaz GUI, será
necesario poder reconocer las características del archivo /etc/printcap .
El utilitario GUI printtool
Red Hat viene con una herramienta GUI que puede ser usada para configurar impresoras llamada
printtool, que se muestra en la Figura . Para usar la herramienta, escriba printtool en un
prompt de shell. Esto lanzará la herramienta de configuración de impresora. Este es un medio más
directo para configurar una impresora y una cola de impresión en un servidor de impresión. Esta
herramienta ayuda en la configuración de una estación de trabajo cliente en la red. Esta
herramienta proporciona menúes paso a paso para seleccionar e ingresar las características
específicas de la impresora que está siendo instalada.
Para configurar una impresora en un servidor de impresión para ser usada por múltiples usuarios,
primero agregue la impresora localmente a la computadora que va a ser el servidor de impresión.
El proceso para hacer esto está en el laboratorio que acompaña a este texto. Una vez que una
impresora ha sido agregada al servidor de impresión, los sistemas Microsoft, Novell y UNIX pueden
imprimir en la impresora configurando el servidor de impresión Linux para permitir que estos
sistemas lo hagan. Los usuarios Linux podrán imprimir automáticamente sólo dándoles permisos.
Esto se hace editando el archivo /etc/lpd.perms.
El traductor Ghostscript
La administración de impresión en un sistema Linux es muy diferente de la de otros sistemas
operativos que podrían ser más comercialmente conocidos o familiares. En otros sistemas
operativos como Windows o Macintosh, la impresora se comunica con el sistema operativo
mediante un controlador de impresora. En otras palabras, el controlador de impresora permite que
la aplicación en el OS se comunique con la cola de impresión. En Linux, el controlador de
impresora funciona en una forma ligeramente diferente. El controlador de impresora en un sistema
Linux o UNIX es parte de Ghostscript.
Ghostscript es una parte de la cola de impresión de Linux. Sin embargo, tenga presente que
algunas aplicaciones e impresoras no necesitarán usar Ghostscript. Ghostscript es un traductor que
permite a los sistemas Linux y UNIX, que usan el lenguaje de impresión PostScript, imprimir en
impresoras no PostScript. Casi todas las impresoras disponibles hoy usan PostScript como el
lenguaje de impresión principal. Por lo tanto, el traductor Ghostscript no será necesario porque la
impresora podrá interpretar la salida del sistema Linux. Sin embargo, algunas impresoras no
314
soportan el lenguaje de impresión PostScript. Por lo tanto, sin GhostScript, los sistemas Linux y
UNIX no podrían imprimir en las impresoras PsotScript.
La razón por la que los sistemas Linux y UNIX necesitan usar GhostScript es porque no tienen
controladores que trabajen de la misma forma que lo hacen los controladores de Windows con las
colas de impresión. Los programas escritos para Windows fueron desarrollados para comunicarse
con el controlador de impresora. Sin embargo, los programas Linux general PostScript y envían
esta salida a la cola de impresión de Linux. Si la impresora es una impresora no PostScript,
entonces la información no se imprimirá. Esto está combinado con el hecho de que las impresoras
laser se han vuelto muy populares y se convirtieron en las impresoras elegidas para los sistemas
UNIX y Linux. Por lo tanto, los programas escritor para los sistemas Linux y UNIX usan lenguaje
PostScript por defecto.
El problema con los programas UNIX y Linux que sólo generan PostScript es que éste no es usado
comúnmente en las impresoras de precios bajos y medios. Esto no es mucho problema para los
sistemas UNIX, que casi siempre usarán una impresora láser costosa que sea compatible con el
lenguaje PostScript. Sin embargo, los sistemas Linux a menudo son usados con impresoras más
pequeñas y menos costosas que no soportan el lenguaje de impresión PostScript. Por lo tanto,
para permitir que los programas en un sistema Linux que generan salida PostScript hacia una
impresora, se necesita un traductor como GhostScript. Como se mencionó antes, Ghostscript
reside en la cola de impresión de Linux y puede traducir el lenguaje PostScript para impresoras no
PostScript.
10.4
Daemons
10.4.10
Scripts
El sistema operativo Linux también puede dar sitio a muchos lenguajes de scripting diferentes. Los
más comunes y básicos de éstos son las capacidades de scripting incorporadas el shell. Un script
de muestra se exhibe en la Figura . Tenga en cuenta que éste es un script muy simple y breve. A
menudo los scripts pueden ser muy largos y complejos y contendrán numerosas líneas de código
que ejecutan diversas tareas automatizadas. Un script del shell es un archivo de texto que contiene
cualquier cantidad de comandos Linux en una lista sucesiva. Al igual que los lenguajes de scripting
de Windows 2000, Linux ejecuta un script de shell de arriba a abajo. Cada comando se ejecuta a su
vez exactamente como si se hubiera tipeado en el prompt de comandos. Los scripts de shell
también pueden contener lógica de programación como sentencias de bucle y condicionales. Todos
éstos podrían introducirse manualmente en el prompt de comandos. Creando un archivo script, los
usuarios y administradores del sistema pueden combinar una serie de comandos y parámetros en
un único comando de script simplificado.
La mejor forma de comprender este proceso es volver a crear un script simple hello world en Linux.
Usando cualquier editor de texto, como vi, la siguiente línea de código puede introducirse y
guardarse.
echo Hello world
A diferencia de Windows 2000, los scripts de shell de Linux no requieren que se siga ninguna
convención de nombrado en particular. Por lo tanto, el usuario puede asignar cualquier nombre de
archivo Linux estándar al script como hello, helloworld, o hello.world. Luego debe asignarse al
archivo los permisos apropiados de ejecución para el usuario. Luego puede ejecutarse en el prompt
de comandos introduciendo la ruta de directorios relativa y el nombre de archivo:
315
./hello
Esto imprime el mensaje anteriormente codificado en la pantalla según lo esperado. Esta
funcionalidad básica detrás de los scripts de shell es atractiva tanto para los usuarios inexpertos
como para los administradores de sistemas. Puesto que Linux es principalmente un NOS dirigido
por comandos, los usuarios pueden crear fácilmente archivos script haciendo una lista de varios
comandos en un archivo de texto y viendo la salida del script. Una vez que estos conceptos básicos
se hacen familiares, la lógica de programación y sintaxis adicionales pueden aprenderse con
facilidad.
Resumen
Este capítulo trató el sistema operativo Linux. Algunos de los conceptos importantes a retener
de este capítulo son los siguientes:
·
·
·
·
·
·
Linux tiene algunos pasos de instalación que no se encuentran en Windows. Por
ejemplo, puesto que Linux está destinado principalmente a ser un Sistema Operativo
de Red (NOS) basado en servidor, hay una opción para hacer una instalación en
estación de trabajo o una instalación en servidor.
Linux usa X Window como interfaz gráfica pero es importante comprender la Interfaz
de Línea de Comandos (CLI). Puede accederse a la consola de comandos usando la
ventana de terminal o la consola principal.
Las páginas man describen los comandos online del sistema, llamadas a comandos,
formatos de archivos, y mantenimiento del sistema. Las páginas man online son parte
del OS Linux y se instalan por defecto. Las páginas man asumen la forma de
pantallas basadas en caracteres simples y se accede a ellas desde el prompt de
comandos.
Los shells Linux operan como intérpretes de comandos. El intérprete de comandos
del entorno MS-DOS es similar. Los shells Linux se cargan solamente al sistema
cuando el usuario lo solicita o inicia sesión en el shell. Incluyen al Shell Bourne, al
Shell C, al Shell Korn, y al Shell Bourne Again.
Los daemons permiten al OS proporcionar funciones como servicios web, archivos
compartidos, intercambio de correo, servicios de directorio, administración remota, y
servicios de impresión. Los daemons no están integrados al sistema operativo como
los servicios lo están en Windows, y se ejecutan como procesos en segundo plano.
El sistema operativo Linux puede dar lugar a muchos lenguajes de scripting
diferentes. Los más comunes y básicos de ellos son sus capacidades de scripting
incorporadas al shell. Un script del shell es un archivo de texto que contiene cualquier
cantidad de comandos Linux enumerados sucesivamente. Un administrador del
sistema puede combinar una serie de comandos y parámetros en un único comando
script simplificado.
Uno de los deberes más importantes de un administrador de sistemas es proteger la
información almacenada en los servidores de red. El siguiente capítulo detalla la
administración avanzada de un NOS.
11. Administración del NOS avanzada
Descripción general
Se requiere de un administrador de sistemas que proteja la información almacenada en
servidores de red. Esto se logra llevando a cabo un procedimiento regular denominado
backup del sistema. Este capítulo tratará los tipos de backups que pueden hacerse. Además,
el alumno aprenderá cómo mapear una unidad para proporcionar a los usuarios acceso a
información almacenada en servidores de red. Monitorear al sistema es una tarea requerida
que permite al administrador mantener un rastreo de los recursos, incluyendo administración
del disco, uso de la CPU, y uso de la memoria. Este capítulo también trata los conceptos
clave de análisis y optimización de la red. Con esta información, pueden implementarse
directrices para la resolución de problemas en el proceso de detección y resolución de
316
problemas.
11.1
Backups
11.1.1
Descripción general de los métodos de backup
Uno de los deberes más importantes de un administrador de sistema es proteger la información
almacenada en los servidores de red. Estos datos podrían dañarse de muchas maneras diferentes,
incluyendo error humano, fallo del hardware, problemas de software, o incluso desastres naturales.
A menudo, los usuarios de una red borran accidentalmente datos importantes almacenados en un
servidor. Es el trabajo de un administrador de sistemas intentar restaurar estos archivos perdidos.
Tal recuperación es posible mediante un procedimiento regular llamado backup del sistema.
El proceso de backup involucra la copia de datos de una computadora a algún otro medio de
almacenamiento confiable para salvaguardarlos. Una vez que los datos han sido archivados por un
dispositivo semejante, el administrador del sistema puede entonces restaurar los datos al sistema
desde cualquier backup grabado anteriormente. Estos dispositivos de almacenamiento alternativos
no necesitan ser extremadamente rápidos o fácilmente accesibles. Hay otras consideraciones que
son más relevantes:
·
·
·
·
Costo
Tamaño
Manejabilidad
Confiabilidad
Costo
Los backups son llevados a cabo bastante a menudo y requieren almacenamiento eficaz en
materia de costos. Afortunadamente, con los rápidos avances de la tecnología moderna, los
dispositivos de almacenamiento se están volviendo simultáneamente más rápidos y más baratos.
Tamaño
Los servidores por lo común pueden almacenar cantidades extremadamente grandes de datos.
Como resultado de ello, es importante seleccionar un medio de backup que proporcione una
capacidad de almacenamiento comparable.
Manejabilidad
A pesar de su importancia, los administradores de sistemas no pueden darse el lujo de pasar varias
horas de cada día en backups del sistema. Cada dispositivo debe ser eficiente y fácilmente
manejable para ayudar a dar lugar al proceso.
Confiabilidad
El backup del sistema sólo es beneficioso si los datos pueden restaurarse exitosamente en algún
punto en el futuro. Si un medio de almacenamiento se desgasta fácilmente o se vuelve ilegible, el
esfuerzo hecho por hacer un backup del sistema se desperdicia.
Dispositivos de backup comúnmente usados incluyen unidades de cinta, unidades de disco
removibles, unidades de disco compacto grabables (CD-R), y otras unidades de disco rígido. La
Figura ilustra los dispositivos de backup más comunes que hay disponibles. Estos dispositivos
varían, y los administradores de sistemas deberán seleccionar las herramientas apropiadas para
cumplir con sus necesidades particulares.
317
Grandes backups del sistema pueden consumir mucho tiempo y por lo común solamente se llevan
a cabo para computadoras críticas, como servidores de red. Para evitar restringir los recursos
limitados del servidor, los backups usualmente se ejecutan durante horas de red no pico, que es
por lo general en medio de la noche. Son más eficaces cuando se los lleva a cabo a intervalos
regulares y comúnmente están programados tan a menudo como una vez por día. Sin un
cronograma regular de backups del sistema, el riesgo potencial de perder datos es mucho mayor.
Tipos de Backups
El tipo más común de procedimiento de backup consiste en que el administrador coloque una cinta
de backup en una unidad de cinta y copie los datos a un backup de cinta. Por ejemplo, el
administrador puede especificar qué datos se copian y en qué puntos se copian los datos. Los
backups usan un tipo de "marcador" de backup, que sirve como atributo de archivo que marca un
archivo cuando ha cambiado desde la última vez que el archivo fue sometido a backup. El método
de backup escogido puede usar este atributo para determinar si hacer o no backup del archivo.
Cuando el archivo es copiado, el atributo se borra. Hay cuatro tipos de procedimientos de backup
que definen cómo éste tendrá lugar:
·
·
·
·
Completo
Parcial
Incremental
Diferencial
Completo
Un backup completo, también llamado backup normal, copiará todo en el disco rígido en un
momento programado del día. Hará esto cada día. Un backup completo no usa los "marcadores"
previamente mencionados ni atributos de archivo para determinar qué archivos copiar. Cuando se
lleva a cabo un backup completo, cada marcador de archivo se borra y marca como copiado. Los
backups normales aceleran el proceso de restauración, porque los archivos copiados son los más
actuales.
Parcial
Un backup parcial copia los archivos seleccionados. Los tipos de backup parcial incluyen backup
de copia y diario. Un backup de copia copiará cualquier archivo y carpeta que un administrador
seleccione para ello. Este tipo de backup parcial es útil para backups que pueden hacerse sin
borrar los marcadores. Un backup de copia no busca y elimina marcadores cuando se hace el
backup. Un backup diario es un método de backup parcial útil que un administrador puede hacer
para seleccionar todos los archivos y carpetas que han cambiado durante el día.
Incremental
En un backup incremental, sólo los archivos que han cambiado desde el último backup se
seleccionarán para el mismo. Los archivos se seleccionan basándose en si han o no cambiado
318
recientemente, en lugar de una selección arbitraria basándose en nombres de directorio o archivo.
Diferencial
Un backup diferencial copiará los archivos creados o cambiados desde el último backup
normal o incremental. No marca los archivos como copiados. Un backup diferencial no
borrará los marcadores. Todos los archivos, incluyendo aquéllos que no han cambiado
desde el último backup, se copiarán.
11.2
Mapeo de Unidades
11.2.1
¿Qué es el mapeo de unidades?
El mapeo de unidades es una herramienta útil que permite a un administrador compartir recursos
almacenados en un servidor. El mapeo es un proceso de dos etapas que requiere definir primero la
ruta al recurso de red, y luego la asignación de una letra de unidad a ese recurso. Las letras de
unidad son significativas sólo localmente, lo que significa que diferentes letras de unidad en
diferentes computadoras cliente podrían representar la misma solución de recurso de red a
intrincados dispositivos robóticos. La Figura muestra un ejemplo de una unidad de red mapeada
en un sistema operativo Windows.
11.2
Mapeo de Unidades
11.2.2
Mapeo de unidades en redes Windows
Mapear una unidad de red en el NOS Windows puede lograrse en una de dos maneras:
·
·
Usando el Explorador de Windows
Usando el comando net use
Mapeo de una Unidad con el Explorador de Windows
Para mapear una unidad con el Explorador de Windows, navegue hasta la carpeta del sistema
remoto en el Explorador de Windows seleccionando Red > Entorno > Nombre del servidor >
Nombre de la carpeta compartida. Un ejemplo del Explorador de Windows se muestra en la Figura
. Otra forma de hacer esto es elegir el menú Herramientas, y después elegir Mapear Unidad de
Red, como lo muestra la Figura . Note que si está instalado Internet Explorer 4.0 o una versión
posterior, otra opción es hacer clic con el botón derecho en el nombre de la carpeta compartida en el
Explorador de Windows y luego elegir Mapear Unidad de Red desde el menú contextual.
319
La unidad mapeada aparece como la letra de unidad asignada en el panel izquierdo del Explorador,
junto con las disqueteras, unidades de CD, y particiones del disco rígido. Se puede acceder a ella
desde el Explorador de Windows, Mi PC, o desde el escritorio si se ha creado un acceso directo.
Mapeo de una Unidad mediante el Comando net use
Otra forma de mapear una unidad en sistemas operativos Windows utiliza la ruta de Convención de
Nombrado Universal (UNC). Usar la siguiente sintaxis puede identificar la unidad compartida:
\\nombrecomputadora\ nombrecompartido
Para mapear una unidad de red al recurso compartido, introduzca lo siguiente en el prompt de
comandos:
net use <letraunidad:\\ nombrecomputadora\ nombrecompartido>
El comando net use puede usarse en lugar del mapeo de unidades mediante el Explorador de
Windows. net use también puede incorporarse a un script de inicio de sesión que se ejecute
automáticamente cuando el usuario inicie sesión en la red.
11.2
Mapeo de Unidades
11.2.3 Mapeo de unidades en redes Linux
Mapear una unidad a un servidor Linux se hace usando uno o dos métodos. Si los clientes están
usando Windows, entonces el daemon Samba necesitará cargarse al servidor Linux. El daemon
Samba carga el protocolo SMB, que permite la comunicación entre computadoras Linux y
Windows. Una vez que el daemon Samba se ha cargado y se han configurado los directorios
apropiados para compartir, entonces los clientes Windows pueden mapear una unidad al directorio
compartido en el servidor Linux, como si estuvieran conectados a un servidor Windows. El usuario
seguiría los pasos descritos previamente para mapearse al directorio compartido.
Una computadora cliente que corra Linux debe mapearse de manera levemente diferente. Primero,
use el comando mount para establecer una conexión al directorio compartido en el servidor.
Introducir la sintaxis mapeará una unidad para compartir en Linux/UNIX. La sintaxis es la siguiente:
mount nombreservidor:/directorio/ subdirectorio/ directoriolocal
La designación de directorio local que señala a la unidad remota compartida denotada por la
primera parte del comando se llama punto de montaje del directorio. La ubicación del punto de
320
montaje ya debe existir antes de que se pueda mapear a ella. Esto significa que el punto de
montaje debe establecerse primero en el servidor Linux que estará compartiendo los recursos.
11.3
Administración de Particiones y Procesos
11.3.1
Uso de fdisk, mkfs, y fsck
El Capítulo 9 trató el particionamiento y el uso de las herramientas de particionamiento para crear
particiones Linux durante la instalación. Esta sección del Capítulo 11 se concentra en la
administración de particiones y sistemas de archivos que se almacenan en las particiones. Las
herramientas principales en un sistema Linux que se usan para administrar particiones de disco son
las utilidades fdisk, mkfs, y fsck.
La Utilidad fdisk
El Capítulo 7 trató los conceptos básicos sobre qué hace la utilidad fdisk. No obstante, los detalles
acerca de cómo usar fdisk y todas las opciones no se trataron. La versión de Linux de fdisk opera
de manera muy diferente a la versión que se usa en los sistemas Windows y DOS.
Al igual que la mayoría de las utilidades Linux, fdisk está basada en texto y requiere el uso de
comandos de una letra para manipular las opciones. Para obtener una lista de los comandos que
pueden usarse con fdisk, tipee m o ? en el prompt de fdisk. Algunos de los comandos más
comúnmente usados se enumeran en la Figura .
La sintaxis de comandos para usar fdisk es bien simple. El comando fdisk se usa junto con el
nombre de archivo del dispositivo en particular asociado con la partición. Por ejemplo, el siguiente
comando debe emitirse primero para poder usar cualquiera de las opciones de más arriba:
fdisk /dev/hda2
Una vez usado este comando, es una buena idea usar primero la opción p para mostrar la
información acerca de la partición. Desde este punto, cualquiera de los comandos enumerados
más arriba puede usarse para hacer cambios en la partición. Tenga en cuenta que no sólo es una
buena idea conocer qué información hay en la partición, sino que toda ella está copiada en un
backup primero. Una vez borrada la partición, también lo son todos los datos en dicha partición.
Algunas de las opciones enumeradas en la Figura requerirán información adicional tal como
cuándo se crean nuevas particiones. Luego, deberá introducirse información acerca de los nuevos
parámetros de la partición.
321
La Utilidad mkfs
Crear una nueva partición o hacer cambios en la partición es solamente el primer paso de la
administración de particiones. Una vez que se han hecho los cambios en la partición, un sistema de
archivos debe crearse en ella. Esto también se denomina formatear la partición. Use la utilidad
mkfs para crear un sistema de archivos en Linux. En el Capítulo 9 se explicó que esta utilidad se
usaba para crear un sistema de archivos y formatear una partición. No obstante, los detalles de
esta utilidad se describen en esta sección.
La sintaxis para la utilidad mkfs es la siguiente:
mkfs [-V] [-t fstype] [options] device [blocks]
Los parámetros para este comando se definen en la Figura
.
Una vez emitido este comando, comenzará el proceso del sistema de archivos o proceso de
formateo. Este proceso puede llevar un breve periodo o un largo periodo dependiendo del tamaño
de la partición y de si se especificó o no una verificación del sistema de archivos. Una vez completo
este proceso, la partición está completa para almacenar datos.
La Utilidad fsck
El comando fsck se usa para verificar el sistema de archivos y reparar archivos dañados. Por
ejemplo, si accidentalmente se apaga su sistema y se daña la estructura de archivos, se puede
usar el comando fsck para intentar reparar el sistema de archivos.
También es una buena idea verificar sus sistemas de archivos ocasionalmente para ver si hay
archivos dañados o corruptos. El comando fsck actúa como programa introductorio a una serie de
comandos diseñados para verificar sistemas de archivos específicos. En otras palabras, verifica el
sistema de archivos que coincide con el tipo que se especifica. La sintaxis para el comando fsck es
la siguiente:
fsck [-A] [-V] [-t fs-type] [-a] [-l] [-r] [-s] filesys
La Figura describe estas opciones de línea de comandos para el comando fsck. Para que el
comando se ejecute apropiadamente, Linux necesita saber qué tipo de sistema de archivos está
verificando. La forma más fácil de asegurarse de que fsck llama al comando correcto es especificar
un tipo de sistema de archivos con la opción -t. Si no se usa la opción -t, Linux intenta descubrir el
tipo de sistema de archivos mirando el sistema de archivos en /etc/fstab y usando el tipo de sistema
de archivos especificado ahí. Es crítico que se especifique qué sistema de archivos verificar porque
hay diferentes tipos de sistemas de archivos que Linux puede usar (ext2, ext3, reiser, etc.). Es
322
especialmente importante si está verificando un sistema de archivos que no está enumerado en el
archivo /etc/fstab. Una buena práctica es desmontar un sistema de archivos antes de verificarlo.
Esto asegura que ninguno de los archivos del sistema de archivos esté en uso cuando están siendo
verificados.
Intentar verificar el sistema de archivos raíz presenta un problema adicional. No se puede
desmontar directamente el sistema de archivos raíz, porque Linux debe poder acceder a él para
poder ejecutarse. Para verificar el sistema de archivos raíz, deberá arrancarse desde un diskette de
recuperación/instalación que tenga un sistema de archivos raíz en él, y después ejecutar fsck en su
sistema de archivos raíz real desde el diskette especificando el nombre de dispositivo especial de
su sistema de archivos raíz. Si fsck hace cualquier cambio en su sistema de archivos, es
importante que reinicie su sistema inmediatamente. Esto permite a Linux releer información
importante acerca de su sistema de archivos y evita que el mismo se siga corrompiendo.
Los nuevos sistemas de archivos tal como ext3, XFS, o ReiserFS no llevan a cabo verificaciones
del sistema de archivos durante el inicio, incluso si el sistema no ha sido apagado apropiadamente.
Estos tipos de sistemas de archivos usan un sistema de diario, que mantiene un registro de
operaciones que necesitan llevarse a cabo en caso de que el sistema se caiga o tenga lugar un
fallo de alimentación. Estas operaciones pendientes puede hacerse o deshacerse para mantener la
integridad de los sistemas de archivos intacta. Este proceso se hace automáticamente cada vez
que se monta el sistema de archivos. Tenga en cuenta que estos sistemas de archivos aún
necesitan tener programas de verificación como fsck que se ejecuten periódicamente en caso de
que otras cosas como bugs del sistema operativo, virus, fallos en la alimentación, o un fallo de
hardware ocurran.
11.3
Administración de Particiones y Procesos
11.3.2
Administración de procesos del sistema mediante trabajos Cron
La manera de programar tareas para que se ejecuten a intervalos regulares en un sistema Linux es
mediante Programas Cron. Los Programas Cron, también llamados trabajos Cron, programan
tareas de mantenimiento del sistema que se llevan a cabo automáticamente. Por ejemplo, el
directorio /tmp se llena de archivos inútiles creados por los usuarios que inician sesión en el
sistema. Es posible programar una tarea que vacíe este directorio a intervalos de tiempo
programados.
La Responsabilidad del Cron
Cron es controlado por las entradas de los directorios /var/spool/cron y /etc/cron.d y del archivo
/etc/crontab. Ejecuta sus comandos basándose en si hay una entrada especificada en estos
archivos para ello. Cron no es un comando, sino más bien es un daemon que se ejecuta
constantemente en segundo plano como un servidor FTP o HTTP. Está constantemente
ejecutándose y escaneando el sistema en busca de eventos que podrían habilitarlo. El daemon
323
Cron funciona de manera levemente diferente a otros daemons en que se ejecuta una vez por
minuto, escanea los tres archivos de configuración previamente mencionados, y lleva a cabo
cualquier tarea especificada en estos archivos.
El primero de dos tipos de trabajos Cron que pueden programarse son los trabajos Cron del
Sistema. Éstos son los trabajos que consisten en tareas de mantenimiento del sistema esenciales
que mantienen el sistema funcionando tan eficientemente como es posible. Éstas incluyen tareas
tales como la mencionada anteriormente de limpieza del directorio /tmp regularmente. Otro ejemplo
de un trabajo Cron del Sistema es la rotación de logs. La rotación de logs cambia los nombres de
los archivos log y borra los antiguos archivos log como rutina para evitar que se hagan demasiado
grandes para el disco rígido. El segundo tipo de trabajo Cron se denomina trabajo Cron del
Usuario. Los trabajos Cron del Usuario pueden ser creados por usuarios regulares para llevar a
cabo ciertas funciones que necesiten para ejecutar un programa específico que usan. Los Trabajos
Cron del Sistema sólo pueden ser ejecutados por el usuario raíz. No obstante, puede ser útil
ejecutar un trabajo Cron del Usuario como raíz para ejecutar una tarea durante un tiempo
especificado por el administrador. Los trabajos Cron del Sistema tienden a ser bastante rígidos en
el tiempo en el cual están programados para ejecutarse. Esto deja muy poca flexibilidad. Los
trabajos Cron del Usuario pueden ejecutarse de manera mucho más flexible.
Creación de un Trabajo Cron del Sistema
Los trabajos Cron del Sistema son controlados mediante el archivo /etc/crontab, que se muestra
en la Figura . El archivo comienza con un conjunto de variables ambientales. Éstas establecen
ciertos parámetros para los trabajos Cron, como PATH y MAILTO, que implica a qué dirección la
salida del trabajo se envía por correo. Las otras líneas de este archivo, como se muestra en la
Figura , especifican cosas como el minuto, hora, día, mes y día de la semana en los cuales el
trabajo Cron del Sistema se ejecutará. Tenga en cuenta que estos valores temporales se
introducen usando el reloj de 24 horas. Los valores son indicados por los números de la Figura .
Los asteriscos (*) indican que todos los valores posibles de la variable tendrán efecto.
La siguiente variable de este archivo indica el nombre de cuenta que se usará para ejecutar el
programa. Por ejemplo, en la Figura se indica "raíz", que siempre será el caso en un trabajo
Cron del Sistema. La última variable indica qué comando ejecutar. Usando la Figura nuevamente
como referencia, run-parts /etc/cron.daily es uno de los comandos que se ejecutarán en
este trabajo. Por lo tanto, de acuerdo a la Figura , todos los scripts en /etc/cron.daily se
ejecutarán a las 4:02 am cada día. Usando este ejemplo, es fácil comprender cómo crear trabajos
Cron del Sistema. Modele otros trabajos Cron del Sistema según los trabajos Cron existentes. De
ser necesario para un trabajo ejecutarse en un momento diferente que el especificado en este
archivo, simplemente edítelo de acuerdo al tiempo correcto. Un trabajo Cron del Usuario también
puede crearse, lo cual se explica en la siguiente sección.
Creación de un Trabajo Cron del Usuario
Los trabajos Cron del Usuario se crean usando la utilidad crontab. Esto no debe confundirse con
324
el archivo /etc/crontab, porque son dos cosas diferentes. La utilidad crontab es un comando que
se introduce en el prompt y la sintaxis para este comando es la siguiente:
crontab [-u usuario] [-l | -e | -r] [archivo]
La utilidad crontab puede usarse con o sin el parámetro -u usuario . Si este parámetro se usa
con este comando, entonces un trabajo Cron del Usuario se creará para el usuario especificado en
el parámetro. Si no se especifica ningún usuario con este parámetro, entonces el trabajo Cron del
Usuario se creará para el usuario actual. Es una buena práctica en un sistema Linux usar siempre
el parámetro -u usuario para especificar el usuario para el trabajo Cron que se creará. Por
ejemplo, el comando su podría usarse para cambiar al usuario actual y luego el comando crontab
podría introducirse sin el parámetro -u usuario . No obstante, esto a veces confunde a la
utilidad crontab, y puede producir resultados imprevistos. Incluso se recomienda que se use el
parámetro -u usuario incluso si se crea un trabajo Cron del Usuario para el usuario individual.
Los otros parámetros asociados a la utilidad crontab se usan para visualizar, editar y crear
trabajos Cron del Usuario. Específicamente, las opciones -l, -e, y -r se usan para trabajar en
trabajos Cron del Usuario actuales. La opción -l, mostrará el trabajo Cron del Usuario actual. La
opción -e abrirá un editor, para que el trabajo Cron del Usuario actual pueda editarse. La opción -r
eliminará el trabajo Cron actual.
Para crear un nuevo trabajo Cron del Usuario, debe introducirse el comando crontab usando el
parámetro archivo. Por ejemplo, el comando crontab –u jsmith js_cronjbs creará un
nuevo trabajo Cron del Usuario llamado "js_cronjbs" para los trabajos Cron de jsmith. La sintaxis
para crear un trabajo Cron del Usuario será la misma que para un trabajo Cron del Sistema del que
hablamos en la sección anterior. Aún se utilizarán variables ambientales para indicar dónde y cómo
ha de ejecutarse el trabajo, y la sintaxis para crear un comando a ejecutarse en un momento
específico también será la misma. La única diferencia será que el usuario no necesita especificar el
nombre de usuario usado para ejecutar el trabajo Cron porque el propietario del trabajo Cron ya
indica esta información.
Ejecución de un Comando en Momentos Programados mediante el Comando at
El comando at es similar al uso de cron en que toma una lista de comandos tipeados en la interfaz
del shell o guardados en un archivo y los ejecuta en el momento especificado por el comando.
Todos los comandos programados son útiles para ejecutar tareas el momentos en los cuales el
sistema no está demasiado ocupado. Para programar uno o más comandos para un tiempo
especificado, use el comando at. Con este comando, se puede especificar una hora, fecha o
ambos. El comando espera dos o más argumentos. Como mínimo, se especifica el momento en
que desea que se ejecuten los comandos y los comandos que desea ejecutar.
En el siguiente ejemplo el comando at lleva a cabo su trabajo a la 1:23 am. La impresión (comando
lp) está programada para ejecutarse hoy, a la 1:23 am. Si el sistema está ocupado a la 1:23 am, el
comando se ejecutará a la 1:23 am del día siguiente. El trabajo imprime todos los archivos del
directorio /home/rtalbot/thesis y envía al usuario llamado rtalbot un e-mail anunciando que el trabajo
de impresión se llevó a cabo a la 1:23 am.
Para ejecutar el ejemplo del párrafo precedente tipee los siguientes comandos en la terminal,
presionando <Enter> al final de cada línea. Una vez que introdujo cada línea, presione <Ctrl-d>
para finalizar el comando.
at 1:23
lp /home/rtalbot/thesis/*
echo "Your files were printed, rtalbot!" | mail -s"Complete" boss
Los comandos a ser programados por at se introducen como una lista de comandos en la línea que
sigue al comando at. Una vez que termine el comando at, ve una pantalla que muestra lo que
325
sigue:
job 55842688.a at Thurs June 17 01:23:00 2004
Esta salida indica que el trabajo se ejecutará a la 1:23 según lo especificado. El número de trabajo
55842688.a, identifica al trabajo. Si decide cancelar el trabajo, hágalo usando el número asociado a
él, como sigue:
at -d 55842688.a
Si tiene varios comandos que desea programar usando at, lo mejor es ponerlos en un archivo,
como se sugirió más arriba. Si el nombre de archivo es scheduledjobs.txt y desea programar los
comandos para las 8:00 am, tipee el siguiente comando:
at 8:00 -f scheduledjobs
También se puede especificar una fecha para un trabajo at. Por ejemplo, para programar un trabajo
para el 17 de junio, se agregaría June 17 al primer comando de ejemplo mostrado arriba. Los
trabajos que se programan con at se colocan en una cola que el sistema operativo verifica
periódicamente.
La Figura resume las diferentes formas de usar el comando at. Como usuario raíz, puede usar
cualquiera de estos comandos; para otros usuarios, los archivos /etc/at.allow y /etc/at.deny
determinan el permiso para usar los comandos. Si /etc/at.allow existe, solamente se permite usar
los nombres de usuario enumerados en el archivo con el comando at. Si el archivo /etc/at.allow no
existe, el sistema verifica /etc/at.deny y a cada nombre de usuario no mencionado en /etc/at.deny
se le permite usar el comando at. Si ninguno de los archivos existe, solamente el raíz puede usar
at. Como alternativa, si etc/at.deny está vacío, cada usuario puede usar at.
11.3
Administración de Particiones y Procesos
11.3.3
Descargas del Núcleo
Otro aspecto importante de la administración de procesos en un sistema Linux es cómo tratar con
las caídas del software. Cuando tales caídas ocurren, a menudo generan errores de causas
potenciales. Estos errores están contenidos en un archivo del núcleo que se crea entonces. Estos
archivos del núcleo también se llaman Descargas del Núcleo.
Es importante comprender qué pueden proporcionar las Descargas del Núcleo y cómo
administrarlas. Una vez que el error o errores han sido identificados, pueden reemplazarse o
repararse. Reparar un software propenso a los errores requiere habilidades de programación
avanzadas que van más allá del alcance de este curso. No obstante, si el administrador o el usuario
comprende el lenguaje en que está escrito el software, entonces el usuario puede intentar reparar el
programa sin tener que reemplazarlo.
Comprensión Acerca de Qué Es una Descarga del Núcleo
El propósito de las Descargas del Núcleo es permitir a los programadores estudiar el archivo para
326
averiguar exactamente qué ocasionó que el programa se cayera. Sin crear una Descarga del
Núcleo, no habría forma de volver atrás y examinar el estado que hizo que el sistema se caiga. Una
vez que el programa se ha caído, todos sus procesos se eliminan de la memoria. Los
programadores pueden estudiar el código de debugging para rastrear a través de los pasos que
condujeron a la caída, lo cual hace fácil identificar qué ocasionó la caída.
El tamaño de la Descarga del Núcleo dependerá del tamaño del programa que lo produjo. Un
programa grande que usa muchos recursos del sistema y memoria producirá un archivo de
Descarga del Núcleo mucho más grande que un programa más pequeño que usa menos memoria y
recursos del sistema. En cualquiera de los casos, el archivo se creará en el mismo directorio en el
cual está ubicado el programa que se cayó. No obstante, en algunos casos no se creará un archivo
Descarga del Núcleo. Por ejemplo, un usuario puede no tener permisos escritos al directorio, o
podría haber un límite en cuanto al tamaño de los archivos del Núcleo que se generan. Limitar el
tamaño de un archivo del Núcleo puede ser útil, para que el espacio libre de los directorios no se
consuma. La sintaxis para limitar el tamaño de los archivos del Núcleo es la siguiente:
ulimit –c [tamaño]
El parámetro tamaño se especifica en kilobytes y asegura que no se cree ningún archivo del Núcleo
más grande que el tamaño especificado. Si un archivo del núcleo es más grande que el tamaño
especificado, se cortará para que tenga este tamaño. Estos archivos del Núcleo abreviados
usualmente no son de gran utilidad. Si se pone un cero como parámetro tamaño, no se generarán
archivos del Núcleo en absoluto, y el parámetro unlimited puede usarse, para que no haya límites
en el tamaño de los archivos del Núcleo que se generan.
Ubicación y Borrado de Archivos del Núcleo
A menos que el usuario tenga acceso a la cuenta raíz de un sistema Linux, ubicar y borrar archivos
del Núcleo será una tarea problemática. Sin acceso a la cuenta raíz, los usuarios regulares no
podrán acceder a todos los directorios en los cuales estos archivos están ubicados. Esto resultará
en no tener acceso a todos los archivos del Núcleo en un sistema. El comando usado para ubicar
los archivos del Núcleo en un sistema Linux es el siguiente:
# find / -name core
También es importante tener en cuenta que este comando dará como salida algunos archivos y
directorios que no son necesariamente archivos Descarga del Núcleo. Por ejemplo, el archivo
/dev/core es un archivo de dispositivos y /proc/sys/net/core es un directorio. Después de emitir
este comando y ubicar los archivos del Núcleo específicos que se buscan, ¿qué hacen los usuarios
con ellos ahora? Como se dijo antes, a menos que los usuarios estén familiarizados con el lenguaje
de programación en el que está escrito el programa, no podrán comprender la mayor parte del
contenido de este archivo. La mayor parte de este contenido será útil a los programadores que
estén familiarizados con el código fuente del programa que creó el archivo. No obstante, una ventaja
de Linux es que la mayor parte del código fuente para los programas que se usan en un sistema
Linux está disponible para cualquiera que tenga la ambición de aprender cómo leerlo, y así ser
capaz de sacar los bugs y solucionar los problemas enunciados en el archivo del Núcleo.
Hay unas pocas cosas en estos archivos de las cuales los usuarios podrían querer enterarse o que
pueden ayudar a descubrir qué creó el archivo del Núcleo y determinar si el archivo es útil o no. Por
ejemplo, puede ser de ayuda familiarizarse con las siguientes propiedades del archivo del Núcleo:
·
·
Propietario del archivo indica quién ejecutó el programa. Descubrir al propietario del archivo
del Núcleo es útil al determinar si borrar o no el archivo por varias razones. Por ejemplo, un
usuario podría estar actualmente escribiendo programas para el sistema, y se colocaron
archivos del Núcleo con este usuario como propietario. Sería una buena idea verificar con
ese usuario primero antes de borrarlos, porque podría necesitarlos por alguna razón.
Fecha de Creación del archivo Núcleo es simplemente la fecha en la cual ocurrió la caída, y
cuándo se creó la Descarga del Núcleo. Identificar la fecha de creación del archivo es útil.
327
·
Puede darnos más ayuda en determinar cuáles borrar o conservar. Usualmente los archivos
más antiguos ya no sirven y pueden borrarse.
Propiedades del Programa Creador de los archivos del Núcleo indicarán qué programa cayó
y generó los archivos de Descarga del Núcleo. Esto, no obstante, se averigua
indirectamente mediante el uso de un comando diferente. Para averiguar qué programa creó
los archivos del Núcleo, tipee gdb -c core. Este comando lanza el debugger de GNU, que
muestra varias salidas acerca del archivo del Núcleo incluyendo el programa que cayó. Para
salir del debugger GNU, tipee exit.
Deberá tenerse cuidado antes de mover o borrar cualquier archivo del Núcleo, porque como se
enunció anteriormente, podría haber archivos y directorios del Núcleo que no son los archivos del
Núcleo que el usuario podría estar buscando. Borrar uno de estos archivos puede hacer que otros
programas no funcionen. Se trató anteriormente que es posible incluir el comando find, con un
trabajo Cron del Usuario. Si la variable ambiental MAILTO está configurada apropiadamente, todos
los archivos del Núcleo del sistema serán reportados cada vez que el trabajo Cron está programado
para ejecutarse. Puede ser útil generar este informe una o dos veces por mes para mantenerse
alerta de cualquier tipo de archivo del Núcleo que podría ser necesario inspeccionar.
Procesos Críticos y No Críticos
Para administrar eficazmente los procesos del sistema en un sistema Linux, es importante ser capaz
de determinar qué procesos se están ejecutando en un sistema y qué procesos son críticos y no
críticos. Este concepto es importante de comprender en un sistema Linux a causa del hecho de que
es un sistema multiusuario y multitareas. Un proceso en un sistema Linux es cualquier programa
que actualmente esté ejecutándose. Puesto que muchos usuarios pueden haber iniciado sesión en
cualquier sistema Linux en un momento y usando el mismo programa, es posible para un sistema
Linux tener dos o más procesos ejecutando el mismo programa al mismo tiempo. Por ejemplo, si
dos usuarios hubieran iniciado sesión y ambos estuvieran usando el editor vi para editar un archivo
de configuración, el sistema mostraría dos procesos de vi actualmente en ejecución. Un proceso se
lanza en un sistema Linux desde el shell, y el shell a su vez lanza el proceso. Esto se conoce como
proceso madre y proceso hijo. El proceso original se denomina proceso madre. Cualquier subproceso lanzado desde dentro del proceso madre es un proceso hijo. Esta relación inicial puede
rastrearse hasta el programa init, que da origen al proceso de inicio de sesión, que a su vez da
origen al shell en el cual se introducen los comandos.
El Comando ps
Los procesos que actualmente se están ejecutando en un sistema Linux pueden ser visualizados
usando el comando ps. Éste es uno de los comandos más importantes que un administrador
necesitará conocer en lo que respecta a la administración de procesos en un sistema Linux. Puede
ser de particular utilidad cuando el sistema está ejecutándose lentamente, para terminar procesos
que están consumiendo demasiados recursos del sistema.
Al igual que la mayoría de los comandos Linux que han sido tratados en este curso, el comando ps
tiene una variedad de opciones que pueden usarse con el comando para manipular su salida.
Algunas de estas opciones se enuncian en la Figura .
328
También es importante mencionar que estas opciones pueden usarse juntas para mostrar la salida
deseada usando el comando ps.
La Salida del Comando ps
Puede haber algunas salidas considerables que se generan cuando se introduce un comando tal
como ps -A -forest según se muestra en la Figura . La información mostrada por el comando ps
–A –forest se muestra en la Figura .
El Comando top
Otro comando informativo, que es similar al comando ps , es el comando top. Éste funciona de
manera muy similar a la herramienta Desempeño de Windows 2000, proporcionando información
detallada respecto al uso de la CPU y de la RAM. La Figura muestra la salida del comando top.
Tal información incluye la cantidad de usuarios que actualmente han iniciado sesión en el sistema,
la cantidad de memoria disponible, y el porcentaje de la CPU usada para diversas tareas. Estas
tareas se ordenan descendentemente, que permiten al administrador del sistema ver rápidamente
qué usuarios consumen la mayor parte de los ciclos de CPU. Por defecto, la salida se actualiza cada
cinco segundos para proporcionar datos continuamente actualizados al usuario. Los administradores
329
del sistema por lo común ejecutarán este comando bastante a menudo para monitorear los niveles
de actividad en el sistema y asegurarse de que los recursos suficientes estén disponibles para sus
usuarios.
Eliminación de Procesos
A veces un proceso hará que el sistema se bloquee. Además, puede comenzar a consumir todos los
recursos del sistema, por lo cual el sistema comienza a funcionar lentamente. Esto hace imposible
para los usuarios ejecutar cualquier otro programa. En el caso de que esto ocurriera, puede usarse
el comando kill. Hay algunos parámetros diferentes que pueden usarse con el comando kill,
que determinan cómo se termina el proceso. La sintaxis genérica para el comando es la siguiente:
# kill –s signal pid
La opción signal representa la señal específica que se envía al proceso. Hay aproximadamente
sesenta y tres (63) parámetros que pueden introducirse para la señal que se envía al proceso. Cada
una de ellos terminará el proceso de manera diferente. Por ejemplo, el usuario puede introducir el
nombre de la señal como SIGKILL o el número correspondiente a SIGKILL, que es el nueve (9).
Signal 9 eliminará el proceso sin llevar a cabo ninguna tarea de apagado. La Figura muestra
todos los parámetros signal posibles que pueden introducirse. Este menú que se muestra en la
Figura puede mostrarse introduciendo el comando kill –l. Si el usuario no especifica una señal,
se usará la señal por defecto 15, que es SIGTERM. Signal 15 eliminará el proceso pero le permitirá
cerrar cualquier archivo abierto que podría estar usando primero. La sección anterior explicó qué es
una pid y qué pid está usando un proceso específico usando el comando ps. La pid debe
introducirse para el proceso que ha de terminarse.
330
Otra opción disponible para eliminar un proceso es usar el comando killall en lugar de sólo
kill. El comando killall se usa para eliminar cada proceso por nombre y no por su número de
pid. Por ejemplo, para eliminar todas las instancias de vi en ejecución, introduzca killall vi. Esto
eliminaría todos los procesos vi actualmente en ejecución, independientemente del número de pid.
Podría haber ocasiones en las que es necesario eliminar todos los procesos excepto uno. Para ello,
use el comando killall con la opción -i. Por ejemplo, si el usuario tipea el comando killall -i
vi en el prompt, el sistema confirmará cada instancia de vi que está ejecutándose. Entonces el
usuario puede terminarlas a todas excepto la que desea que siga ejecutándose.
11.3
Administración de Particiones y Procesos
11.3.4 Asignación de permisos para los procesos
Una de las áreas finales de la administración esencial de procesos en un sistema Linux es poder
controlar quién tiene la capacidad de ejecutar determinados programas asignando el permiso
apropiado. Por lo común, los programas tienen los mismos tipos de permiso y pueden leer los
mismos archivos que el usuario que ejecuta el programa. Existen no obstante, determinados
programas que requieren permiso adicional para ser ejecutados por ciertos usuarios.
El comando su es un ejemplo de esto. El comando su permite a un usuario pasarse a otro usuario
y ejecutar programas con la cuenta de otro usuario. Los usuarios regulares no pueden ejecutar el
comando su, porque requiere privilegios de cuenta raíz. Programas como éste se ejecutan usando
el bit SUID o SGID, que permite ejecutar estos programas bajo el permiso de otro usuario. En este
ejemplo el comando su tendría un bit SUID raíz para permitir que los usuarios regulares lo
ejecuten.
El Set User ID (SUID) se usa con archivos ejecutables en un sistema Linux. Le indica al sistema
operativo que ejecute el programa con el permiso de quien posea el archivo, en lugar de aquél del
usuario que ejecuta el programa. Como en el ejemplo del comando su, el bit SUID fue establecido
como cuenta raíz, lo que significa que cualquier usuario podría ejecutar este programa usando el
permiso de la cuenta raíz.
La Set Group ID funciona igual, pero establece el bit SGID para el grupo al cual está asociado el
programa.
El uso de estas funciones puede ser de ayuda y a veces necesario para permitir a los usuarios
ejecutar programas específicos que requieren un permiso que normalmente no tienen. Es
importante limitar esta capacidad a tan pocos archivos como sea posible a causa del riesgo de
seguridad que representa. Si esta opción para el comando su está habilitada, como en el ejemplo
de más arriba, eso daría a los usuarios la capacidad de asumir la identidad de otros usuarios de la
331
red.
Riesgos de Seguridad de SUID y SGID
Hay unos pocos riesgos de seguridad involucrados en el uso del bit SUID o SGID para permitir a
los programas el ser ejecutados con permiso de otros usuarios:
Permitir a los usuarios ejecutar ciertos programas como su, cp, o fdisk es un riesgo. Aplicar
permisos de raíz SUID para el comando fdisk podría permitir a un usuario borrar completamente el
disco rígido del servidor. Hacerlo para el comando cp permitiría al usuario copiar cualquier archivo
del servidor. Esto podría ocasionar serias amenazas a la seguridad si un usuario copiara un archivo
sensible como /etc/shadow, que contuviera la información de contraseña de otro usuario.
Otro riesgo de seguridad es si hay bugs en cualquiera de los programas, SUID o SGID. Si estos
programas contuvieran problemas o bugs y son ejecutados por usuarios que no deberían tener
permiso para ello, podrían potencialmente ocasionar más daño al sistema que si fueran ejecutados
con los privilegios normales. Por ejemplo, si un programa es ejecutado que tenga un bug
desconocido que intente borrar cualquier archivo que se encuentre en el directorio, esto podría
ocasionar mucho daño al sistema. No habría mucho daño si un usuario con privilegios normales
ejecutara este programa. No obstante, si este programa tuviera privilegios raíz SUID, todo el
directorio o más podría resultar dañado.
Estos dos ejemplos son ejemplos de los peores casos y es improbable que ocurran. Esto es así
especialmente en el caso del programa que tiene bugs y borra todos los archivos de un directorio.
Es muy común que los programas contengan bugs, pero es muy poco común que dicho bug
comience a borrar archivos. No obstante, los archivos pueden corromperse haciendo que ya no
funcionen. En cualquier caso, es siempre una buena idea tener particular cuidado respecto a qué
programas se asigna un permiso de bit SUID o SGID y minimizar la cantidad de programas que
tienen estos permisos especiales.
Otros comandos para administrar procesos
Algunos de los otros comandos útiles para administrar procesos son los comandos bg, fg, nice,
renice, y rc. Las funciones de estos comandos son:
·
·
bg Coloca el trabajo actual o el trabajo especificado en segundo plano, suspendiendo su
ejecución para que un nuevo prompt del usuario aparezca inmediatamente. Use la opción
jobs con el comando bg para especificar un trabajo en particular o descubrir la identidad de
trabajos en segundo plano.
fg Coloca el trabajo actual o el trabajo especificado en primer plano. Use la opción jobs
con el comando fg para especificar un trabajo en particular o para descubrir las identidades
de los trabajos en segundo plano.
El comando nice se usa para alterar la prioridad inicial de un trabajo. En sistemas Linux esto es
bien simple: cuanto más bajo es el comando nice, más alta es la prioridad. El rango en un sistema
Linux es de -20 (la más alta) a 19 (la más baja). El uso de nice es muy simple. Por ejemplo, si
desea asegurarse de que un programa que compila e instala tiene una alta prioridad, podría
introducir el siguiente comando:
nice -n 5 make
El comando anterior baja el número de nice y elevó la prioridad del trabajo inicialmente para esta
tarea. El comando renice se usa para alterar el valor nice de un trabajo una vez que se lo ha
empezado. Es importante notar que sólo el raíz puede alterar el valor nice de trabajos que no son
suyos, lo que evita que los usuarios molesten a otros usuarios. Los usuarios no-raíz solamente
pueden alterar sus valores nice entre 0 y 20, lo cual protege los procesos privilegiados del sistema.
El siguiente comando es un ejemplo del uso de renice en un único proceso:
332
renice 5 -p 10023
En el comando anterior el valor de nice es bajado a 5 del PID 10023. El comando renice también
puede afectar un grupo entero de procesos. Por ejemplo, si quisiera que todos los procesos del
usuario jdoe tuvieran un valor de nice de 12, se introduciría el siguiente comando:
renice 12 -u jdoe
11.4
Monitoreo de Recursos
11.4.1
Administración del disco
Un buen administrador de sistemas es constantemente consciente de los muchos recursos críticos
de un NOS. Estos recursos deberán monitorearse en todas las computadoras importantes de la
red, tal como los diversos servidores de una organización. Si una computadora corre lenta en
cualquier recurso en particular, el administrador del sistema debe estar al tanto del problema y
corregirlo inmediatamente antes de que ocurra un problema serio. La administración del disco es
una de las tareas más comunes e importantes llevadas a cabo por el administrador del sistema.
Usando regularmente programas de verificación de errores y defragmentación y administrando
continuamente el espacio libre en disco, el administrador del sistema puede mantener una unidad
(o unidades) de disco rígido saludable. La Figura muestra la pantalla de Administración de Disco
de Windows 2000.
El espacio en disco disponible en una unidad de disco rígido es un recurso limitado que puede
consumirse rápidamente en los servidores de red. A cada usuario de una red se le otorga por lo
común permiso de escritura completo en el directorio home o en algún otro almacenamiento central
de la red. El comportamiento de los usuarios puede ser muy impredecible. Cuando muchos
usuarios almacenan sus datos en la misma unidad de disco rígido, el disco puede llenarse bastante
333
rápidamente. Las consecuencias de quedarse sin espacio en disco a veces son impredecibles y
podrían incluso incluir fallos inesperados de los programas en ese servidor.
La administración del espacio en disco de rutina puede llevarse a cabo de varias maneras. Un
método incluye inspeccionar regularmente el estado del disco y hacer cualquier ajuste necesario
manualmente. Otra solución más práctica usa mensajes de alerta automatizados para notificar al
administrador del sistema cuándo el espacio disponible en disco cae por debajo de un nivel
predeterminado. Tales alertas pueden ser muy buenas herramientas que ahorran tiempo y ayudan
a administrar no sólo el almacenamiento en disco, sino también todos los recursos del NOS.
Una herramienta de administración de disco preventiva disponible para los administradores del
sistema es el uso de "cuotas" para las cuentas de los usuarios. Una cuota actúa como techo de
almacenamiento que limita la cantidad de datos que cada usuario puede almacenar en la red.
Usando esta herramienta, un administrador de sistemas puede planificar y administrar mejor el
espacio disponible en la unidad de disco rígido de la red. Si no se implementa una cuota, los
usuarios pueden por lo común almacenar tantos datos como lo deseen en el disco de la red.
Aunque este método proporciona una mayor flexibilidad a los usuarios, también obliga al
administrador del sistema a monitorear de cerca el nivel actual de espacio disponible en disco. En
definitiva, los métodos de administración del disco que un administrador de sistemas emplea son
una combinación de preferencias personales y de las necesidades de los usuarios.
11.4
Monitoreo de Recursos
11.4.2
Uso de la memoria
Otro recurso crítico que un administrador del sistema debe administrar es la Memoria de Acceso
Aleatorio (RAM). Cada vez que una aplicación se ejecuta en una computadora, se lee información
del disco rígido y se la coloca en el almacenamiento temporario de la RAM. La computadora usa
esta porción de su RAM para ejecutar el programa y eventualmente libera el espacio una vez que
se sale del programa. La RAM es mucho más rápida que un disco rígido, pero también es mucho
más pequeña. Como resultado de ello, es posible usar el 100 por ciento de la RAM del sistema
simplemente ejecutando varios programas a la vez.
Una falta de RAM disponible puede tener un impacto severo en el desempeño de una
computadora, especialmente en una que funciona como servidor de red. Cuando la memoria es
baja, obstaculiza severamente la potencia de procesamiento del sistema y puede producir efectos
colaterales negativos, como caídas de programas. En el caso de un servidor de red, un pobre
desempeño de la memoria puede incluso evitar que los usuarios inicien sesión en el servidor. Es el
deber de un administrador de sistemas monitorear el uso de las aplicaciones y evitar que estos
eventos ocurran. Las herramientas de diagnóstico que permiten descubrir las aplicaciones
intensivas en materia de RAM, y detenerlas si es necesario, están por lo común incorporadas a la
mayoría de plataformas de NOS. La Figura muestra el administrador de tareas usado para
verificar el uso de la memoria.
334
Puesto que la RAM es usualmente un recurso limitado, los administradores de sistemas pueden
compensar la falta de memoria mediante el uso de "memoria virtual". La memoria virtual adjudica
espacio en el disco rígido y lo trata como una extensión de la RAM del sistema. Aunque el acceso
al disco rígido es significativamente más lento que a la RAM estándar, la memoria virtual ayuda a
evitar la falta de RAM incrementando mucho la cantidad total disponible. La mayor parte del
software NOS proporcionará la capacidad de administrar la memoria virtual directamente con
herramientas incorporadas. Un administrador de sistemas puede elegir incrementar la cantidad por
defecto de memoria virtual si el NOS continuamente sufre de falta de memoria.
11.4
Monitoreo de Recursos
11.4.3
Uso de la CPU
La Unidad Central de Procesamiento (CPU) actúa como cerebro de una computadora moderna.
Toda la información usada por el NOS, incluyendo el NOS en sí, es procesada millones de veces
por segundo por la CPU para mostrar información al usuario. Cada aplicación que se esté
ejecutando, ya sea visible o en segundo plano, consume valiosos ciclos de procesamiento de la
CPU. La mayoría de los sistemas operativos priorizan estas tareas, permitiendo a la CPU servirlos
de acuerdo a la importancia. No obstante, la CPU puede en ocasiones sobrecargarse con grandes
cantidades de procesamiento llevado a cabo simultáneamente. Esto es especialmente común en el
caso de los servidores de red, donde muchos usuarios intentan acceder a los recursos de la
computadora al mismo tiempo. A medida que más usuarios solicitan información al servidor, la CPU
debe trabajar más para cumplir esas demandas.
Como todos los otros recursos de un NOS, herramientas incorporadas se proporcionan
comúnmente para permitir a los administradores del sistema monitorear el nivel actual de actividad
de la CPU. Este feedback se presenta a menudo en términos del porcentaje de la CPU actualmente
usado y se actualiza a intervalos frecuentes. La Figura muestra el uso de la CPU durante el
periodo de una semana.
Además, las aplicaciones por lo común se enumeran individualmente con sus respectivas
estadísticas de uso. Si una aplicación o usuario en particular causa en el sistema un excesivo
esfuerzo de procesamiento, el administrador del sistema puede elegir terminar la causa del
problema. Aunque puede parecer desagradable obligar a un usuario a desconectar o detener un
programa en medio de su uso, la realidad es que tales acciones a menudo son necesarias para
mantener un desempeño de procesamiento aceptable para todos los usuarios.
11.4
Monitoreo de Recursos
11.4.4
Revisión de registros diarios
Un aspecto importante de monitorear los recursos de cualquier computadora es revisar los archivos
log [registro] del sistema. La mayoría de programas de computadora, servidores, procesos de inicio
de sesión, así como el kernel del sistema, registran resúmenes de sus actividades en archivos log.
Estos resúmenes pueden usarse y revisarse para diversas cosas, incluyendo software que podría
estar funcionando mal o intentos de irrumpir en el sistema.
Para ayudar a crear un informe de estos eventos, los "logs" son generados automáticamente por el
sistema y sus aplicaciones. Estos archivos por lo común consisten en sentencias de texto que
detallan información específica acerca del evento que ocurrió. Por ejemplo, la mayoría de
servidores web mantienen un archivo log que detalla cada solicitud de información hecha al
335
servidor. Información relativa al momento de la solicitud, la dirección IP de la computadora remota,
y archivos accedidos se almacenan como registros únicos del log. Estos registros proporcionan al
administrador de sistemas feedback y datos estadísticos necesarios para implementar mejoras en
las operaciones del servidor.
En Windows 2000, la herramienta Administración de la Computadora permite a los usuarios
navegar por los eventos registrados generados por el NOS. La Figura muestra un ejemplo de los
eventos registrados en Linux. Dos categorías debajo del encabezado Herramientas del Sistema, se
almacena la información registrada. Son el "Visor de Eventos" y "Logs y Alertas de Desempeño".
Varios tipos diferentes de eventos registrados se registran aquí, incluyendo Información,
Advertencias y Errores. Hacer doble clic en cualquiera de estas entradas muestra la información
registrada en mayor detalle.
Uso de los Archivos Log del Sistema Operativo
La mayoría de los sistemas operativos proporcionan un medio de escribir automáticamente en un
archivo log del sistema. Este archivo detalla fallos de dispositivos, intentos fallidos de
comunicaciones, y otras condiciones de error. La información es un útil punto de partida para
detectar y resolver problemas. Por ejemplo, Windows NT y Windows 2000 proporcionan el Visor de
Eventos. Si se selecciona un evento específico, tal como un error de TCP/IP por ejemplo, pueden
verse más detalles acerca del evento. La información que se mostrará indica que ocurrió un
conflicto de direcciones IP, lo cual explicaría por qué esta computadora no puede comunicarse en
la red.
Ubicación de Archivos Log del Sistema en un Sistema Linux
El monitoreo y la visualización de logs en un sistema Linux se hace de manera muy diferente que
en un sistema Windows. Linux usa daemons de log para controlar los eventos que se introducen en
el log del sistema. El primer paso para poder ver los archivos log en un sistema Linux es poder
localizarlos. La mayoría de los archivos log de los sistemas Linux se ubican en el directorio
/var/log. Los archivos log que se encuentran en este directorio son mantenidos por el daemon de
log del sistema (Syslogd) y el daemon de log del kernel (klogd). Estos dos daemons se configuran
usando el archivo syslog.conf, que se muestra en la Figura . Como se muestra en este ejemplo,
la mayoría de las entradas especifican que el log se envíe a un log en el directorio /var/log.
Muchos de los servidores en un sistema Linux, como Samba por ejemplo, mantienen sus propios
archivos log. La ubicación donde se almacenan estos archivos puede configurarse mediante el
archivo de configuración nativo del servidor, como smb.conf con Samba. El parámetro del archivo
log en los archivos smb.conf controla dónde se ubica el archivo log. No obstante, normalmente se
lo encuentra en el directorio /var/log o en uno de sus subdirectorios por defecto.
336
Identificación de Información Importante en los Archivos Log
Existen varios archivos log en un sistema Linux. Puede ser difícil determinar qué archivos son
importantes o qué información importante deberá tener la mayor atención en estos archivos. La
mayoría de los archivos log nunca necesitarían de alguien que se preocupara por ellos o que ni
siquiera los mirara. Hay, no obstante, alguna información importante contenida en algunos de estos
archivos. Por ejemplo, los archivos log de un sistema Linux mantienen inicios de sesión hechos por
la cuenta raíz e intentos de usar el comando su para obtener privilegios de raíz. Los archivos log
también mantienen información acerca de intentos por abrir o acceder a puertos que han sido
cerrados por el firewall o intentos fallidos de acceder a servidores o programas xinetd. Es raro que
un sistema Linux alguna vez necesite apagarse, por lo tanto cualquier inicio o apagado no
autorizado podría ser sospechoso. Por ejemplo, reinicios no autorizados del servidor podrían
significar una intrusión exitosa en el sistema. Por esta razón se mantienen logs de todos los inicios
y apagados del sistema. Se mantienen logs de error, que usualmente ocurren cuando un mensaje
de error extraño podría aparecer en la pantalla. Más a menudo, éste es sólo el resultado de una
mala configuración del servidor, pero a veces puede significar que se hizo un intento de irrumpir en
el sistema. Otros archivos log importantes para prestarles atención son los archivos log del kernel.
A veces el kernel contraerá bugs, o un fallo en el hardware puede resultar en lo que se llaman oops
del kernel.
Dependiendo de la distribución de Linux usada, los archivos log serán diferentes. Por ejemplo, no
hay archivos log para sendmail en Mandrake o Debian Linux, ya que estas distribuciones usan
otros servidores de correo. Hay otras razones para familiarizarse con los archivos log y la
información que se introduce en los archivos log que hay en el sistema Linux. Lo más importante,
porque un usuario podrá determinar mejor qué eventos se registran como eventos normales y
cuáles no. Esto es así para que los que no lo son puedan ser fácilmente identificados y examinados
en mayor detalle.
Herramientas de Análisis de los Archivos Log
Los archivos log de un sistema Linux pueden volverse muy grandes y difíciles de administrar, lo
cual hace de cualquier análisis productivo de estos archivos algo muy difícil. Hay varias
herramientas en un sistema Linux que ayudarán a administrar los archivos log del sistema y que
harán del análisis de los archivos algo mucho más fácil. Anteriormente se explicó acerca de los
trabajos Cron y cómo pueden usarse para renombrar viejos archivos log. Esto es así para que
puedan crearse nuevos y los viejos borrarse regularmente para evitar que los archivos log crezcan
continuamente hasta alcanzar tamaños inadministrables y que ocupen espacio innecesario en el
disco rígido. Esta rotación de archivos log puede configurarse para que ocurra diariamente,
semanalmente, o mensualmente dependiendo de la actividad del sistema y de cuán largos son los
archivos que se almacenan en él.
Otra herramienta de análisis de archivos log que puede usarse es Logcheck. Algunas
distribuciones incluyen esta herramienta por defecto, como Mandrake y Debian Linux. Es
más fácil de usar cuando viene preconfigurada con la distribución de Linux. Al usar una
distribución que no incluye Logcheck, tendrá que configurarse para que se ejecute en el
sistema. Lo mejor es verificar la documentación en busca de instrucciones específicas
acerca de cómo configurar esto en un sistema Linux. El archivo principal que debe editarse
es el archivo logcheck.sh, que se instala con el paquete. Este archivo debe configurarse para
verificar los archivos log que han de monitorearse. Las funciones, como por ejemplo qué
usuario recibe informes cuando se ha hallado una violación, pueden ajustarse. Por lo común
esto se configura a raíz por defecto. Una vez configurado Logcheck, debe crearse un trabajo
Cron, que cronometre los intervalos cuando se ejecuta y a quién se enviarán los informes
por e-mail.
337
11.4
Monitoreo de Recursos
11.4.5
Verificación del uso de los recursos en Windows 2000 y Windows XP
Los recursos del sistema se monitorean en Windows 2000 y Windows XP mediante la Herramienta
Desempeño como lo muestra la Figura . Esta aplicación se encuentra bajo la opción del menú
Inicio > Programas > Administración del Sistema > Desempeño. El árbol del menú a la izquierda
presenta el "Monitor del Sistema" y "Logs y Alertas de Desempeño", que es la misma opción que se
encuentra en las opciones de Herramientas de Administración de la Computadora. Seleccionar el
Monitor del Sistema muestra un gráfico vacío por defecto. Los usuarios pueden entonces hacer clic
con el botón derecho en el gráfico y seleccionar Agregar Contadores para especificar qué recursos
del sistema monitorear en el gráfico. La Figura ilustra el proceso de agregar recursos
monitoreados a la herramienta de Desempeño de Windows 2000.
Por ejemplo, para monitorear el uso actual de la RAM del sistema, use el menú desplegable "Objeto
de Desempeño" para seleccionar la opción de la memoria. A continuación, el usuario puede decidir
qué aspectos del uso de la memoria visualizar seleccionando de la lista del contador y presionando
el botón Agregar. Varias adiciones pueden hacerse al gráfico desde esta ventana, y una descripción
de cada recurso está disponible haciendo clic en el botón Explicar. Hacer clic en el botón Cerrar y
regresar a la Herramienta de Desempeño muestra las estadísticas de los recursos seleccionados
usando un gráfico de línea por defecto. El gráfico de línea proporciona un historial visual de la
actividad de los recursos. Esto incluye información acerca de sus valores actual, promedio, mínimo y
máximo.
Para configurar más aún esta pantalla, los usuarios pueden hacer clic con el botón derecho en el
gráfico y seleccionar Propiedades. Aparece el recuadro de diálogo Propiedades del Monitor del
Sistema, donde los usuarios pueden seleccionar vistas de los datos tales como Histograma o
informe sólo texto. Varias otras opciones personalizables pueden encontrarse aquí, la más
importante de las cuales es el recuadro de verificación "Actualizar automáticamente...". Marcar
esta opción permite a la Herramienta de Desempeño automatizar la pantalla automáticamente
según el intervalo especificado. Deberá notarse que una tasa de refresco más rápida incrementará
la cantidad de datos proporcionados al usuario, pero a un costo significativo. Irónicamente, la
Herramienta de Desempeño en sí usa valiosos recursos del sistema para monitorear e informar
sobre estos mismos recursos. Especificar una tasa frecuente de actualizaciones podría tener un
impacto levemente negativo en los recursos disponibles para Windows 2000/XP y otras
aplicaciones.
338
11.4
Monitoreo de Recursos
11.4.6 Verificación del uso de recursos en Linux
Las herramientas Linux más comunes usadas para investigar el uso de recursos consisten en
varios comandos basados en texto introducidos en la línea de comandos. La Figura muestra
comandos comunes para mostrar el uso de recursos. Para más detalles respecto a los diversos
parámetros de estos comandos, los usuarios pueden ver sus respectivas páginas del manual
introduciendo el comando man en el prompt. No obstante, estos comandos son relativamente
simples en su uso y son extremadamente informativos para los administradores de sistemas sin
especificar parámetros adicionales. Por lo común no generan información gráfica como las cartas
que genera Windows 2000. En cambio, listas detalladas de información textual se muestran
organizadamente para permitir al usuario interpretar los datos. Las herramientas comúnmente
usadas se tratan a continuación.
El Comando df
La primera de ellas es el comando df. Se lo usa para mostrar la cantidad de espacio en disco
actualmente disponible para los diversos sistemas de archivo de la máquina. La Figura muestra
la salida del comando df. Su salida es organizada en seis columnas. Éstas incluyen sistema de
archivos, bloques, usados, disponibles, capacidad y montados. Cada sistema de archivos se
enumera en líneas individuales a lo largo de su información de uso correspondiente. Este comando
proporciona una mirada de alto nivel al uso del disco de parte del sistema. Si un sistema de
archivos en particular se está poniendo innecesariamente grande, el administrador del sistema se
enterará en primer lugar del problema aquí.
El Comando du
No obstante, si es necesario un rastreo más profundo de los recursos del disco, el comando du
puede usarse entonces para determinar la ubicación exacta del problema. Cuando se especifica un
nombre de directorio, el comando du devuelve el uso del disco tanto para el contenido del directorio
como para el contenido de cualquier subdirectorio por debajo suyo. La Figura muestra la salida
del comando du. Ejecutarlo para directorios de alto nivel con muchos subdirectorios puede resultar
en un conjunto de salidas muy grande. Este comando se usa mejor dentro de los niveles más bajos
de la estructura de directorios para ayudar a ubicar áreas específicas del sistema de archivos que
consumen grandes cantidades de espacio de disco.
339
El Comando top
El tercero y tal vez más informativo comando disponible para la administración de recursos
básica de Linux es el comando top. Esto funciona de manera muy similar a la Herramienta
de Desempeño de Windows 2000, proporcionando información detallada respecto al uso de
la CPU y la RAM. La salida del comando top se mostró anteriormente en este capítulo. Tal
información incluye la cantidad de usuarios actualmente con sesión iniciada en el sistema,
la cantidad de memoria disponible, y el porcentaje de la CPU usada para diversas tareas.
Estas tareas se ordenan en orden descendente, lo cual permite al administrador del sistema
ver rápidamente qué usuarios están consumiendo la mayor parte de los ciclos de la CPU.
Por defecto, la salida se refresca cada cinco segundos para proporcionar datos
continuamente actualizados al usuario. Los administradores de sistemas por lo común
ejecutarán este comando bastante a menudo para monitorear los niveles de actividad en el
sistema y asegurarse de que hay los suficientes recursos disponibles para sus usuarios.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.1
Conceptos clave en el análisis y optimización del desempeño de la red
La administración de una red de computadoras es a menudo un trabajo de mucha ocupación y gran
presión. Esto es así en un departamento de soporte de tecnología de la información para una red
de nivel empresarial o en una pequeña compañía con un único administrador de LAN. Puesto que
puede haber poco tiempo disponible para el personal de la red, muchos administradores se
encuentran a sí mismos operando de modo reactivo. Es decir, tratan los problemas a medida que
ocurren, lo cual no deja tiempo para implementar medidas que evitarían que esos problemas
ocurrieran en primer lugar.
El administrador de red debería hacerse tiempo para concebir un plan proactivo para administrar la
red. Este plan habilita la detección de pequeños problemas antes de que se conviertan en grandes.
Si puntos problemáticos potenciales se anticipan y se toman medidas para corregirlos, pueden
ahorrarse mucho tiempo y dinero. Los tres conceptos clave para el análisis y optimización del
desempeño de la red son los siguientes:
·
·
·
Cuellos de botella
Líneas básicas
Mejores prácticas
Las siguientes secciones observan más de cerca cada concepto y tratan la velocidad de conexión a
Internet, que es otro factor importante al evaluar y optimizar una red. Muchos de los términos
importantes que se relacionan con problemas de desempeño y monitoreo serán definidos.
340
11.5
Análisis y Optimización del Desempeño de la Red
11.5.2
Cuello de botella
Un cuello de botella es exactamente lo que el nombre implica. Es el punto en el sistema que limita
el throughput de datos, que es la cantidad de datos que pueden fluir a través de la red.
Un cuello de botella puede estar ocasionado por un problema con un componente o por
limitaciones inherentes al mismo. Un ejemplo podría ser una red que tiene hubs y switches de
10/100 Mbps y switches y computadoras con placas de red de 10/100 Mbps, pero sólo par trenzado
Categoría 3 en la infraestructura de cableado. Puesto que el cable de par trenzado Categoría 3 no
soporta una velocidad de transferencia de datos elevada, el cable es el cuello de botella que
ralentiza la red.
Es dudoso que todos los componentes de la red puedan ponerse a punto de manera tan precisa
que todos operen exactamente a la misma velocidad. No obstante, optimizar el desempeño tiene
en cuenta encontrar los cuellos de botella y actualizar, reconfigurar y reemplazar los componentes
para elevar su desempeño hasta o por encima del nivel del resto de los componentes de la red.
Este proceso de manera casi inevitable crea un nuevo cuello de botella en otro punto, pero con
buena planificación el nuevo cuello de botella debería ser menos restrictivo que el anterior.
Para poder diagnosticar qué componente del servidor de red está ocasionando un cuello de botella
en el sistema, debe haber herramientas de software de monitoreo de desempeño específicas del
sistema operativo del servidor de red. La mayoría de los sistemas operativos de servidores de red
tienen al menos un paquete de software de monitoreo de desempeño básico incluido en el sistema
operativo. Fabricantes terceros también tienen herramientas de software de monitoreo de
desempeño disponibles para la mayoría de los sistemas operativos de servidores de red.
Ejemplos de herramientas de software de monitoreo de desempeño para diversos sistemas
operativos de servidor de red incluyen los siguientes:
·
·
Performance Para Microsoft Windows 2000 Server
sar, iostat, vmstat, ps Para UNIX/Linux
La herramienta principal de monitoreo de desempeño de Windows 2000 Server de Microsoft se
llama simplemente Performance [Desempeño], que se muestra en la Figura . Performance puede
monitorear casi todos los componentes de hardware y software de un servidor Windows 2000. El
monitoreo puede asumir la forma de crear un gráfico en tiempo real de utilización de recursos, o
puede asumir la forma de un archivo log para un posterior análisis. El archivo log puede analizarse
o exportarse en un formato que pueda ser usado por otro software, como un paquete de software
de estadísticas estándar para el análisis o Microsoft Excel para generar gráficos o estadísticas. La
Herramienta de Windows 2000 Server (Performance) encaja en la Consola de Administración de
Microsoft. La apariencia del monitor de desempeño de NT 4.0 es levemente diferente, pero la
funcionalidad básica es casi idéntica.
341
Las diversas versiones de los sistemas operativos UNIX/Linux tienen utilidades de línea de
comandos que pueden usarse para monitorear el desempeño del servidor de red UNIX/Linux. Las
herramientas principales son sar, vmstat, iostat, y ps. Los indicadores usados por estos
comandos pueden variar en las diferentes versiones de UNIX/Linux. Use el comando man de
UNIX/Linux para obtener especificaciones acerca del uso de estos comandos. La información
mostrada por el comando man también indica cómo interpretar la salida generada por el comando.
El System Activity Reporter de UNIX/Linux, o comando sar, recoge e informa sobre la actividad del
sistema, que incluye utilización del procesador, utilización del buffer, etcétera para el servidor de
red UNIX/Linux. El Virtual Memory Statistics de UNIX/Linux, o comando vmstat, proporciona
información acerca del sistema de memoria virtual para el servidor de red UNIX/Linux. El
Input/Output Statistics de UNIX/Linux, o comando iostat, proporcoina información acerca de la
entrada/salida del subsistema de disco para el servidor de red UNIX/Linux. El comando Processes
(ps) de UNIX/Linux enumera todos los procesos que se están ejecutando en el servidor de red
UNIX/Linux.
Cuellos de Botella del Procesador
Use las herramientas de monitoreo del desempeño disponibles para el sistema operativo del
servidor de red para monitorear la utilización del o de los procesador(es) del servidor de red. Los
dos contadores a observar más de cerca son la utilización porcentual del procesador y la longitud
de la cola del procesador. La utilización porcentual del procesador es el porcentaje de tiempo en
que el procesador está ocupado. Si la utilización porcentual del procesador es constantemente
mayor que el 70%, el procesador es el cuello de botella del servidor de red. La longitud de la cola
del procesador es la cantidad de procesos esperando al procesador. Si la longitud de la cola del
procesador es constantemente mayor que 2, el procesador es el cuello de botella del servidor de
red. Alivie el cuello de botella del procesador haciendo cualquiera de las siguientes cosas:
·
·
·
Actualice el procesador existente a uno más rápido.
Agregue un procesador adicional al servidor de red.
Mueva las aplicaciones o servicios de este servidor de red a otro.
Cuellos de Botella de Memoria
En servidores de red con sistemas operativos que no soportan memoria virtual, los cuellos de
botella de memoria son bastante fáciles de detectar. La falta de memoria se manifiesta en estos
sistemas como la incapacidad de cargar software adicional o la falta de "buffers", que es
almacenamiento temporal entre el sistema y sus unidades de disco. Los buffers son fácilmente
detectados usando software de administración de servidores estándar. La solución a una falta de
memoria es agregar más memoria.
342
En servidores de red con sistemas operativos que sí soportan memoria virtual, varios indicadores o
contadores deberán monitorearse. El primer contador es la cantidad de memoria disponible, o la
memoria que no se está usando, una vez que se ha cargado todo el software del servidor de red.
Para evitar totalmente la paginación o intercambio de páginas de memoria al disco, simplemente
coloque más memoria real o física de la necesitada por todo el software que se ejecuta en el
servidor de red.
El otro contador que debería monitorearse para verificar si hay cuellos de botella de memoria es la
cantidad de páginas que se leen o escriben en el archivo de paginación del disco en un segundo.
La cantidad de páginas por segundo aceptable depende de la velocidad del procesador. En
general, la cantidad debería ser menor que 2.000 por segundo. Una paginación densa a menudo se
manifiesta como alta utilización del disco, porque las páginas de memoria se escriben en el disco
cuando la memoria es necesitada por otro programa.
Otro indicador de la falta de memoria es la cantidad de fallos de página generados por segundo. Un
fallo de página es la condición encontrada cuando hay un intento de acceder a una página de un
programa, la página ya no está en la memoria, pero debe recuperarse del disco. Un problema de
fallo de página está indicado si la cantidad de fallos de página por segundo es más del doble de los
fallos de página grabados en las mediciones de línea básica del servidor tomados bajo una carga
de trabajo normal. Para aliviar un cuello de botella de memoria, agregue más memoria al servidor
de red. El desempeño de la paginación puede mejorarse a menudo colocando el archivo de
paginación, o archivo de intercambio, en el disco más rápido del servidor de red. Además, este
disco no debe contener el sistema operativo del servidor de red o los archivos de datos usados por
la aplicación más importante que se ejecuta en el servidor de red.
Cuellos de Botella del Subsistema de Disco
El subsistema de disco puede ocasionar cuellos de botella del sistema, especialmente cuando el
servidor de red tiene el rol de un servidor de red que requiere un subsistema de disco rápido como
en un servidor de base de datos.
Los contadores del subsistema de disco que deberán monitorearse son la utilización del
subsistema de disco y la longitud de cola del disco. Un porcentaje de utilización del subsistema de
disco no deberá ser constantemente mayor del 90%. Esta tasa de utilización del subsistema de
disco muy alta indica que el subsistema de disco es el cuello de botella.
La longitud de la cola del subsistema de disco indica cuántos elementos esperan para ser escritos
al subsistema de disco. Una longitud de cola del subsistema de disco que es constantemente
mayor que dos indica que el subsistema de disco es demasiado lento. Varias cosas podrían
mejorar el desempeño del subsistema de disco:
·
·
·
·
·
·
Defragmente el disco rígido. Tener archivos fragmentados en la unidad de disco puede
reducir drásticamente el desempeño del disco.
Mueva el archivo de paginación del sistema operativo del servidor de red a la unidad de
disco más rápida del servidor de red y fuera de la unidad de disco donde está ubicado el
sistema operativo del servidor de red.
Mueva la aplicación que causa una alta utilización del disco a otro servidor de red.
Reemplace el controlador de disco por un controlador de disco que tenga un caché de
memoria incorporado.
Reemplace las unidades de disco por unidades de disco con una alta velocidad rotatoria y,
por lo tanto, más rápido tiempo de acceso.
Reemplace todo el subsistema de disco, que incluye el controlador y las unidades de disco,
por un subsistema de disco más rápido.
Cuellos de Botella del Subsistema de Red
Los cuellos de botella del subsistema de red son tal vez los más difíciles de detectar y resolver. Un
software de monitoreo de desempeño común puede proporcionar conteos de paquetes enviados y
recibidos y poco más. Para analizar el desempeño de la red, es necesario un analizador para
343
hardware o software. Un analizador de red puede realmente capturar paquetes de la red para un
posterior análisis. El porcentaje de utilización de la red, un indicador muy valioso del desempeño de
la red, puede determinarse fácilmente. Un analizador de red también puede determinar el tipo de
paquetes de red (por ejemplo, broadcasts, multicasts, o unicasts) y los protocolos que están
consumiendo la mayor parte del ancho de banda de la red.
Un porcentaje del uso de la red que sea constantemente mayor que 65% se considera en general
como una alta utilización y puede constituir un cuello de botella. Las soluciones a un cuello de
botella de un subsistema de red son en general caras e incluyen lo siguiente:
·
·
·
·
Reemplazar el subsistema de red por uno más rápido. Reemplazar una red Ethernet de 10
Mbps por una red Fast Ethernet de 100 Mbps probablemente eliminará el subsistema de
red como cuello de botella.
Reemplazar los hubs Ethernet por switches Ethernet. En un hub Ethernet, todo el ancho de
banda de la red disponible es compartido. Usar un switch Ethernet en lugar de un hub
proporciona a cada puerto la cantidad completa de ancho de banda, lo que significa que
ésta no es compartida.
Si el cuello de botella parece ser ocasionado por demasiados clientes intentando llevar al
servidor de red, considere el uso de agrupación por adaptador para incrementar el ancho
de banda de red disponible para el servidor de red. Esto requiere la instalación de varias
NICs en el servidor de red y un switch Fast Ethernet que soporte la instalación de
agregación de ancho de banda.
Eliminar protocolos innecesarios de la red. Cuando hay varios protocolos instalados en un
servidor de red, los anuncios enviados desde el servidor de red se envía una vez por cada
protocolo instalado. Esto incrementa el tráfico en la red.
Los siguientes son un par de herramientas de monitoreo y análisis de red bien conocidas:
·
·
Microsoft Network Monitor
Novell LANalyzer para Windows
11.5
Análisis y Optimización del Desempeño de la Red
11.5.3
Líneas básicas
Las mediciones de la línea básica deberán incluir las siguientes estadísticas:
·
·
·
·
Procesador
Memoria
Subsistema de disco
Red - Longitud de la cola de red
344
El primer paso al determinar cuán eficientemente una red se está desempeñando involucra
comparar diversas mediciones a las mismas mediciones tomadas en un momento anterior. Estas
mediciones pueden incluir la cantidad de bytes transferidos por segundo, la cantidad de paquetes
descartados, o una cantidad de otros indicadores de desempeño de la red. Una vez hecha esta
comparación, puede responderse a una cantidad de preguntas:
·
·
El desempeño, ¿ha mejorado o se ha degradado?
¿Cuál es el efecto sobre el desempeño de implementar un nuevo servicio o función?
La única forma de conocer las respuestas es tener una medición válida con la cual comparar las
lecturas actuales. Este punto de comparación se llama línea básica, que es el nivel de desempeño
aceptable cuando el sistema está manejando una carga de trabajo típica. Una lectura de línea
básica debería hacerse en un momento en que la red está funcionando normalmente. La medición
no debería hacerse en el momento más ocupado del día, ni tampoco cuando la red no está en uso
en absoluto. Una línea básica debería establecerse midiendo el desempeño de la red durante el
uso normal. Una buena manera de hacer esto es tomar varias lecturas separadas a intervalos
espaciados y después sacar un promedio. Usando las utilidades disponibles para los diversos
sistemas operativos de red, pueden llevarse a cabo mediciones de línea básica. Las mediciones de
línea básica incluyen las siguientes estadísticas:
·
·
·
·
·
·
·
·
Procesador Porcentaje de uso
Procesador Longitud de la cola del procesador
Memoria Fallos de página de hard
Memoria Fallos de página de soft
Subsistema de disco Porcentaje de uso del disco
Subsistema de disco Longitud de la cola del disco
Red Porcentaje de uso de la red
Red Longitud de la cola de la red
Además de ayudar a identificar cuellos de botellas que pueden estar desarrollándose, una línea
básica ayuda a:
·
·
·
·
Identificar grandes usuarios
Mapear patrones de uso de la red diarios, semanales o mensuales
Detectar patrones de tráfico relativos a protocolos específicos
Justificar el costo de actualización de componentes de la red
Estos ítems se tratarán en detalle en las secciones que siguen.
Identificación del Uso Elevado
No es inusual encontrar que unos pocos usuarios están usando un porcentaje desproporcionado
del ancho de bando. Cuando estos grandes usuarios son identificados, se hace posible:
·
·
·
Aconsejar a los grandes usuarios sobre formas de conservar el ancho de banda.
Restringir su uso mediante controles de software.
Planificar su gran uso y buscar formas de evitar que el uso afecte la eficiencia de la red.
Por supuesto, la opción elegida depende de quiénes son los grandes usuarios, sus roles en la
organización, y el propósito de su gran uso.
NOTA: Algunas aplicaciones de software, por ejemplo, programas de backup y escaneos anti-virus
basados en el servidor, también usan una gran cantidad de ancho de banda. Éstas deberían
programarse para que se ejecuten durante periodos de bajo uso.
Mapeo de Patrones de Uso
345
El monitoreo también permite el mapeo de patrones de uso. No sólo es posible determinar dónde
tiene lugar el gran uso, sino también cuándo ocurre. Esto hace más fácil el adjudicar ancho de
banda para días de alto uso esperado u horas pico. También hace más fácil el programar el
mantenimiento de la red y el tiempo de inactividad del servidor en un momento en el cual tenga
menos efecto sobre los usuarios de la red.
Detección de Patrones de Tráficos Específicos del Protocolo
Dispositivos y software de monitoreo de red permiten la detección de patrones de tráfico basados
en el protocolo. También es posible determinar qué puertos se están usando. Un administrador de
red es capaz de ver si el ancho de banda se desperdicia en actividades que no tienen que ver con
los negocios como los juegos o navegar por la web.
Los monitores de red a menudo se denominan analizadores de protocolo. La mayoría de los
analizadores se basan en software, y permiten la captura de paquetes individuales (también
llamados frames) a medida que viajan por la red. Los analizadores de protocolo se tratan en
más detalle en la sección "Herramientas de Monitoreo y Administración de Red"
posteriormente en este capítulo. Solamente deberán capturarse la cantidad de estadísticas
necesarias realmente para evaluar el desempeño de la red. El software de monitoreo de red
solamente deberá usarse durante periodos de bajo uso, porque el software de monitoreo en
sí tiene un efecto en el desempeño del sistema.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.4
Determinación de la velocidad de conexión a Internet
Si una red está conectada a Internet, puede ser útil determinar la velocidad de conexión. El hecho
de que un módem de 56 kbps se usa para conectarse no significa que realmente se establezca una
conexión de 56 kbps. Es probable, dependiendo de las condiciones de la línea, que la velocidad de
conexión sea de 50 kbps o inferior. De hecho, algunos servicios de compañías telefónicas como
AT&T TrueVoice evitan que un módem de 56 kbps se conecte a su velocidad óptima.
NOTA:
En Estados Unidos, la Comisión Federal de Comunicaciones (FCC) limita la cantidad de energía
eléctrica que puede transmitirse a través de las líneas telefónicas. Esto limita la velocidad de un
módem de 56 kbps a alrededor de 53 kbps, incluso si todas las otras condiciones son óptimas. El
throughput de datos puede variar a causa de factores tales como el uso de compresión de
hardware o software. Esta compresión hace posible llegar a un throughput de 112 kbps con un
346
módem de 56 kbps a través de una línea telefónica analógica. La velocidad de una conexión está
limitada por su componente de más baja velocidad o el cuello de botella. Esto significa que incluso
si el equipamiento es capaz de una conexión de 50 kbps, la conexión será a la velocidad más baja
si el módem remoto soporta solamente 33,6 kbps. El componente de networking de conexión
telefónica de un sistema operativo puede indicar una velocidad de conexión, usualmente en bits por
segundo (bps). Por ejemplo, una conexión de 50 kbps a menudo se muestra como de 50.000 bps.
Esto podría no dar una indicación verdadera del throughput real, porque mide solamente la
velocidad de conexión inicial entre el módem local y el módem remoto. El throughput normalmente
fluctúa durante una sesión de conexión.
NOTA:
La velocidad de conexión puede mostrarse como velocidad de puerto (que es la velocidad de
módem a computadora que incluye la compresión) o la velocidad de conexión real (la velocidad de
módem a módem). Windows puede mostrar la velocidad en cualquiera de estos formatos,
dependiendo del controlador del módem que esté instalado. Durante la descarga de un archivo por
Internet, la velocidad de descarga usualmente es mostrada por el navegador o software FTP. Esto
a menudo se muestra en kilobytes por segundo. Hay ocho bits por byte, así que una velocidad de
conexión de 50 Kilobits por segundo (Kbps) probablemente mostrará una velocidad de descarga de
alrededor de 6,25 Kilobytes per second (KBps). Descargar un archivo de música de cinco minutos y
usando esta conexión podría llevar a un usuario de quince a veinte minutos. La Figura muestra el
tiempo requerido para descargar cinco minutos de música en un archivo MP3. Esta información
puede usarse para determinar la diferencia que hará la velocidad de conexión a Internet más alta y
más baja. Hay varios sitios web que tienen como objetivo probar la velocidad de conexión. Estos
sitios usan el Protocolo de Transferencia de Hipertexto (HTTP), la sobrecarga del cual afectará la
velocidad de descarga. Los resultados de diferentes sitios pueden variar. No obstante, son útiles
para comparaciones estimadas. Algunos de los sitios que miden la velocidad de conexión son:
·
·
·
Dslreports.com está disponible en la siguiente dirección: http://www.dslreports.com/stest.
Telus.net High-Speed Internet está disponible en la siguiente dirección:
http://www.telus.net/highspeed/BC/hs-speed.html
Toast.net Internet Service está disponible en la siguiente dirección: http://www.toast.net
Hay muchas razones para una conexión a Internet lenta:
·
·
·
·
Una conexión pobre al servidor de acceso remoto del ISP causada por problemas del
módem en cada extremo y líneas con ruido
Un servidor web, servidor FTP, o cualquier servidor en Internet lento al cual se envían las
solicitudes
Conexiones congestionadas en las líneas del backbone principal, que pueden ocurrir
durante eventos de importancia nacional o internacional
Ancho de banda compartido en la LAN o dentro de la red del ISP
Se esperan bajas temporarias en la velocidad ocasionales, y hay poco que pueda hacerse respecto
a ello. Si la velocidad de conexión es inaceptable sobre una base continua, puede ser necesario
cambiar a banda ancha u otro acceso de alta velocidad.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.5
Software de monitoreo de la red
Muchos paquetes de software están disponibles para asistir en el monitoreo y administración de una
red. Algunos vienen incluidos con un sistema operativo de red, y algunos son descargables desde la
World Wide Web como freeware o shareware. Muchos de estos paquetes son tanto costosos como
sofisticados.
En las siguientes secciones, se examinan algunos programas de monitoreo y administración
populares. Los proveedores de servicio de administración de red también se tratan. Éstos son
347
profesionales del networking que se contratan para administrar la red de una organización.
El software de monitoreo de red va de simple a complejo y de gratis a caro. Los sistemas operativos
modernos como Windows NT y Windows 2000 tienen herramientas de monitoreo incorporadas.
Éstas no son tan sofisticadas o con muchas funciones como los productos de terceros, pero pueden
ser útiles al establecer líneas básicas de desempeño o resolver problemas en la red.
Las herramientas de monitoreo de red sofisticadas se denominan analizadores de protocolo. Los
analizadores de protocolo capturan los paquetes o frames que se transmiten entre dos o más
computadoras o dispositivos de red. El analizador luego decodifica (interpreta) los paquetes de
modo tal que los datos puedan visualizarse en inglés (o en otro idioma) en contraposición al
lenguaje binario. Un analizador de protocolo sofisticado también proporciona estadísticas e
información sobre tendencias en el tráfico capturado. El término "sniffer" se usa a menudo para
referirse a cualquier programa que permite "escuchar" el tráfico en la red. Network Associates hace
el producto con la marca registrada Sniffer y su versión mejorada, Sniffer Pro. Ambos productos son
analizadores de red. Los programas de sniffing tienen mala reputación en algunos círculos, porque
los hackers y crackers pueden usarlos para extraer nombres de usuario y contraseñas que se
envían a través de una red en texto claro. Estas credenciales luego se usan para obtener acceso no
autorizado a sistemas. No obstante, los sniffers tienen muchos usos legítimos para los
administradores de red:
·
·
·
Análisis de problemas de conectividad
Análisis del desempeño
Detección de intrusiones
Microsoft System Monitor y Microsoft Performance Monitor
System Monitor en Windows 2000 y Performance Monitor en Windows NT 4.0 miden el desempeño
de una gran cantidad de componentes del sistema, incluyendo contadores de componentes de la
red.
Estos monitores pueden mostrar valores en formato de gráfico, guardar los datos en un log, y
compilar informes. Las mediciones pueden verse en tiempo real, actualizarse automáticamente o
actualizarse bajo demanda. Performance Monitor y System Monitor pueden configurar alertas y
enviar notificación cuando un valor especificado pasa arriba o abajo de un límite predefinido. Para
identificar cuellos de botella en la red, contadores de interfaz de red como los siguientes deberán
monitorearse:
·
·
·
Total de bytes por segundo
Bytes enviados por segundo
Bytes recibidos por segundo
348
Estos contadores de objetos de capa del protocolo también pueden monitorearse:
·
·
·
·
Segmentos recibidos por segundo
Segmentos enviados por segundo
Frames recibidos por segundo
Frames enviados por segundo
Monitorear estos contadores ayuda a planificar una capacidad de ancho de banda apropiada. Por
ejemplo, si la cantidad total de bytes transferidos por segundo está cerca de o es igual a la
capacidad máxima de un medio de red, alguno de los equipos deberá actualizarse (por ejemplo, de
Ethernet de 10 Mbps a Ethernet de 100 Mbps) o el uso de la red deberá reducirse.
Microsoft Network Monitor
System Monitor mide valores de red relacionados con el desempeño. Para capturar y analizar
realmente los paquetes a medida que viajan por la red, debe usarse una herramienta diferente.
Windows NT 4.0 y Windows 2000 incluyen una versión "light" del Microsoft Network Monitor, que es
parte del Servidor de Administración del Sistema (SMS) de Microsoft. SMS se tratará en la sección
de Administración de Red de este capítulo.
El monitor de red que viene con Windows NT y Windows 2000 es una herramienta funcional y útil
para llevar a cabo un análisis de protocolo de rutina. La Figura muestra al Network Monitor
monitoreando la utilización de la red, frames por segundo, y estadísticas de la red adicionales.
Network Monitor puede usarse para mostrar los frames individuales de datos capturados. La
figura muestra que paquetes para varios protocolos diferentes han sido capturados,
incluyendo TCP, UDP, y SMB.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.6 Software para la administración de la red
La diferencia entre software de monitoreo de red y software de administración de red es que el
último es generalmente más abarcativo. Aunque incluye componentes de monitoreo, puede hacer
mucho más.
La administración de servicios de red es una gran parte de cualquier trabajo de un administrador de
red, y esto es especialmente cierto en el entorno a nivel empresarial. Un administrador de red
deberá familiarizarse con las herramientas que pueden hacer esta tarea más fácil. Esto incluye las
funciones de administración que están incorporadas a los modernos sistemas operativos de red y
los productos de software ofrecidos por fabricantes de sistemas operativos y terceros.
349
Administrar la red incluye una cierta cantidad de tareas:
·
·
·
·
·
·
Documentación de los dispositivos de la red y el estado de cada uno
Creación de un inventario de software de red que permita la implementación de software y
actualizaciones por la red
Medición de software para proporcionar datos sobre qué aplicaciones se están usando y
cómo, cuándo y por quién están siendo usadas
Administración de las licencias de software
Control remoto de máquinas cliente y servidores a través de la red y administración de
escritorios remotos
Notificación a los administradores de eventos tales como fallo de componentes de la red o
una capacidad de disco predefinida que se alcanza o excede
Hay varios programas de administración de red (o, más precisamente, suites de programas) en el
mercado. En esta sección, se examinan algunos de los más populares:
·
·
·
·
Microsoft SMS
Novell ManageWise
IBM Tivoli Enterprise
Hewlett Packard OpenView
Estos productos están diseñados teniendo en mente la red grande, multisitio, empresarial. El
software de administración de red que es apropiado para la LAN de tamaño pequeño a mediano
incluye LANExplorer y Lanware Network Monitoring Suite.
Microsoft Systems Management Server (SMS)
Microsoft SMS es un paquete de administración de red de alta potencia que proporciona un
inventario de hardware y software instalando el agente del cliente en computadoras destino. La
Figura muestra el recuadro de propiedades del Agente Cliente de Inventario de Hardware. SMS
también permite capacidades de diagnóstico remotas, control remoto del escritorio, e
implementación de software.
SMS también incluye una versión más robusta del Microsoft Network Monitor que la incorporada a
los sistemas operativos Windows NT y Windows 2000. Por ejemplo, el Network Monitor del SMS
agrega la capacidad de buscar routers en la red y resolver direcciones a partir de nombres.
350
Una de las características más útiles de SMS es su función de distribución de software. Con ella, se
crea un paquete de distribución. El paquete contiene la información usada por SMS para coordinar
la distribución del software como lo muestra la Figura .
SMS usa el servidor Microsoft SQL para almacenar datos, lo que significa que los datos pueden
exportarse fácilmente a Microsoft Access. SMS incluye soporte para clientes Macintosh, y puede
integrarse fácilmente a un entorno Novell NDS.
Novell ManageWise
Novell ManageWise consiste en un grupo integrado de servicios de administración de red que
pueden usarse para administrar servidores NetWare o, mediante la adición de un agente agregado,
servidores Windows NT. Los componentes incluyen un análisis del tráfico de la red, control de
estaciones de trabajo y servidores, y administración de aplicaciones de red. La consola de
ManageWise también incluye la capacidad de mapear unidades de red.
Al igual que SMS, ManageWise puede crear un inventario de dispositivos de red. Además, incluye
una función de alarma/notificación. ManageWise incluye el agente NetWare LANalyzer, el agente
de administración, Intel LANDesk Manager, y protección contra virus LANDesk. ManageWise
incluye el Administrador de Escritorio, como lo muestra la Figura .
El Administrador de Escritorio [Desktop Manager] permite ver los inventarios de hardware y
software de la estación de trabajo. También habilita la transferencia de archivos, chat, control
remoto, y reinicio de la estación de trabajo.
351
IBM Tivoli Enterprise
Tivoli Enterprise es un paquete de administración de red popular que incluye herramientas
diseñadas para proporcionar administración de bienes, administración de disponibilidad,
administración de cambios, administración de operaciones, administración de seguridad,
administración de servicios, y administración de almacenamiento. Tivoli Enterprise hace fácil
implementar estos componentes en fases.
Tivoli Enterprise es capaz de proporcionar una vista completa de la topología de red. Herramientas
de reporte permiten la personalización de la vista en la cual se presentan los datos, y pueden
crearse "sets inteligentes" que agrupan los datos lógicamente y que ayudan a analizar la salud de
la red. IBM Tivoli Enterprise se muestra en la Figura .
Tivoli también ofrece soluciones para pequeños negocios con Tivoli IT Director y para
organizaciones de tamaño medio con las suites de administración Tivoli.
Hewlett Packard OpenView
Las herramientas de administración de Hewlett Packard OpenView incluyen OpenView Enterprise
para soluciones para empresas a gran escala y OpenView Express para compañías de tamaño
mediano. OpenView Enterprise está diseñado para redes que tienen miles de servidores, y más de
5000 estaciones de trabajo que corran sistemas operativos de red Windows NT, Windows 2000, o
UNIX. OpenView Express proporciona administración para servidores web, administración de
servidores de correo Exchange, y redes modo mixto Windows NT y Windows 2000. El componente
OpenView ManageX es una herramienta de administración de servidores y desempeño que puede
usarse en entornos NT y NetWare.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.7
Software de administración para redes de tamaño pequeño y mediano
Además de los productos de administración de red ofrecidos por compañías de software
importantes como Microsoft, Novell, IBM, y Hewlett Packard, numerosas compañías más pequeñas
hacen productos dirigidos al mercado de tamaño pequeño a mediano. Éstos incluyen a Lanware
Network Monitoring Suite (NMS), que usa el Protocolo de Administración de Red Simple (SNMP).
NMS proporciona funciones tales como la capacidad de reiniciar servicios, programar eventos y
reiniciar servidores. NuLink ViewLAN es otra herramienta de administración y monitoreo basada en
SNMP relativamente simple. En las siguientes secciones, se tratan SNMP y el Protocolo de
Información de Administración Común (CMIP). Estos protocolos son la base de muchas de estas
soluciones de software simples.
352
SNMP
SNMP es un protocolo que se incluye en la mayoría de las implementaciones de TCP/IP. Tiene
varias ventajas como solución de administración de red:
·
·
·
·
·
Simplicidad
Bajo costo
Relativa facilidad de implementación
Baja sobrecarga en la red
Soportado por la mayoría de los dispositivos de hardware de red
SNMP usa una base de datos jerárquica llamada Base de Información de Administración (MIB)
para organizar la información que reúne acerca de la red. Software llamado administrador SNMP se
instala en una computadora host que se usa para recolectar los datos. El software del agente
SNMP se instala en las computadoras de la red desde las cuales se recogen los datos. Versiones
freeware tanto de adminitradores como agentes SNMP están disponibles para diversos sistemas
operativos.
CMIP
CMIP fue diseñado para mejorar SNMP y expandir su funcionalidad. Funciona de manera muy
similar a SNMP, pero tiene mejores características de seguridad. Además, permite la notificación
cuando ocurren eventos especificados.
Puesto que la sobrecarga para CMIP es considerablemente más grande que lo requerido para
SNMP, es implementado menos extensamente. CMIP se basa en la suite de protocolos OSI,
mientras que SNMP se considera parte de la suite TCP/IP.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.8
Proveedor del Servicio de Administración (MSP)
Un nuevo desarrollo en la administración de red es el Proveedor de Servicio de Administración
(MSP). Una compañía se suscribe a un servicio MSP, que proporciona monitoreo del desempeño y
administración de la red. Esto ahorra a la organización el costo de comprar, instalar, y aprender a
usar el software de monitoreo y administración. Un ejemplo de una compañía que proporciona
outsourcing de tareas de administración de red es Luminate.Net, que proporciona una interfaz
basada en la web para la interacción con los clientes.
353
11.5
Análisis y Optimización del Desempeño de la Red
11.5.9
Conceptos y componentes de SNMP
SNMP es el Protocolo de Administración de Red Simple. Ejecutándose en el puerto 161 por
defecto, es la única forma de obtener estadísticas verdaderas sobre el uso de la red bajo TCP/IP.
SNMP habilita a los administradores de red para detectar problemas remotamente y monitorear
hubs y routers. Gran parte de SNMP está definido dentro de los RFCs 1157 y 1212, aunque
muchos más RFCs tratan SNMP. SNMP puede hallarse junto con otros RFCs, en diversos sitios
web, incluyendo http://rs.internic.net. También puede efectuarse una búsqueda de SNMP o RFC y
encontrar información más específica relacionada con una parte específica de SNMP.
Usando SNMP, puede encontrarse información acerca de estos dispositivos remotos sin tener que
estar físicamente en el dispositivo en sí. Ésta puede ser una herramienta muy útil si se comprende
y usa apropiadamente. Algunos ejemplos son:
·
·
·
·
Dirección IP de un router
Cantidad de archivos abiertos
Cantidad de espacio disponible en el disco rígido
Número de versión de un host (como Windows NT)
Antes de configurar SNMP, es necesario tener las direcciones IP o nombres de host de los
sistemas que serán iniciadores o de aquéllos que responderán a las solicitudes. El Servicio SNMP
de Microsoft, por ejemplo, usa la resolución de nombres de host regular de Windows NT, como
HOSTS, DNS, WINS, y LMHOSTS. Por lo tanto, al usar uno de estos métodos de resolución,
agregue el nombre de host correcto a la resolución de dirección IP para las computadoras que
están siendo configuradas con SNMP. Los tipos de sistemas en los cuales pueden hallarse los
datos incluyen los siguientes:
·
·
·
·
·
·
Mainframes
Gateways y routers
Hubs y bridges
Servidores Windows NT
Servidores LAN Manager
Agentes SNMP
SNMP usa un diseño de arquitectura distribuida para facilitar sus propiedades. Esto significa que
diversas partes de SNMP se extienden a través de la red para completar la tarea de recolectar y
procesar los datos para proporcionar administración remota. Un Servicios SNMP de Microsoft
354
permite a una máquina ejecutando Windows NT poder transferir su condición actual a una
computadora ejecutando un sistema de administración SNMP. No obstante, éste es sólo el lado del
agente, no las herramientas de administración. Diversas utilidades de administración de terceros
están disponibles, incluyendo las siguientes:
1. IBM NetView
2. Sun Net Manager
3. Hewlett-Packard OpenView
Agentes y Administración SNMP
Hay dos partes principales de SNMP:
1. Lado de la administración La estación de administración es la ubicación centralizada
desde la cual los usuarios pueden administrar SNMP.
2. Agente La estación agente es la pieza de equipo desde la cual los emisores intentan
extraer los datos.
Las siguientes secciones tratan cada parte.
El Sistema de Administración SNMP
El sistema de administración es el componente clave para obtener información del cliente. Al
menos un sistema de administración es necesario para poder usar el Servicio SNMP. El sistema de
administración es responsable de "hacer las preguntas". Como se mencionó anteriormente, puede
hacer a cada dispositivo una cierta cantidad de preguntas, dependiendo del tipo de dispositivo.
Ademas, determinados comandos pueden emitirse específicamente en el sistema de
administración. La Figura muestra los comandos genéricos no específicos a ningún tipo de
sistema de administración directamente.
Usualmente, solamente un sistema de administración está ejecutando el Servicio SNMP por grupo
de hosts. Este grupo se conoce como comunidad. No obstante, más sistemas de administración
pueden ser deseables por las siguientes razones:
·
·
·
Varios sistemas de administración pueden hacer diferentes solicitudes a los mismos
agentes.
Diferentes sitios de administración pueden existir para una única comunidad.
Diferentes sistemas de administración pueden ser necesarios para ayudar a diferenciar
ciertos aspectos de la comunidad a medida que la red crece y se hace más compleja.
El Agente SNMP
Anteriormente, se ha explicado de qué es responsable el lado de administración SNMP y qué
puede hacer específicamente. En su mayor parte, el lado de administración es el componente
activo para obtener información. El agente SNMP, por otro lado, es responsable de cumplir con las
solicitudes y responder al administrador SNMP según corresponda. En general, el agente es un
355
router, servidor o hub. El agente es usualmente un componente pasivo que sólo responde a una
solicitud directa.
En una única instancia en particular, el agente es el iniciador, actuando por su cuenta sin una
solicitud directa. Este caso especial se denomina "trampa". Se tiende una trampa desde el lado de
administración al agente. Pero la administración no necesita ir hacia el agente para averiguar si se
ha caído en la información trampa. El agente envía un alerta al sistema de administración
diciéndole que el evento ha ocurrido. La mayor parte del tiempo, el agente es pasivo excepto en
esta única ocasión.
11.5
Análisis y Optimización del Desempeño de la Red
11.5.10
Estructura y funciones de SNMP
Ahora que se han tratado el sistema de administración y los agentes, exploraremos los diferentes
tipos de bases de datos de consultas.
Base de Información de Administración (MIB)
Los datos que el sistema de administración solicita a un agente están contenidos en la Base de
Información de Administración (MIB). Ésta es una lista de preguntas que el sistema de
administración puede hacer. La lista de preguntas depende de acerca de qué tipo de dispositivo se
está preguntando. La MIB es la base de datos de información contra la que puede consultarse. El
tipo de sistema que es determina qué puede consultarse específicamente. La MIB define qué tipo
de objetos pueden consultarse y qué tipo de información está disponible acerca del dispositivo de
red. Por ejemplo, hay MIBs para routers, hubs, switches, computadoras, e incluso algunos
paquetes de software, como sistemas de base de datos. La MIB contiene una lista de los
elementos que pueden ser administrados por SNMP en el dispositivo asociado con la MIB. Una
variedad de bases de datos MIB pueden establecerse. La MIB se almacena en el agente SNMP.
Estas MIBs están disponibles tanto para los sistemas agete y de administración como referencia de
la que ambos pueden extraer información.
El Servicio Microsoft SNMP, por ejemplo, soporta las siguientes bases de datos MIB:
·
·
·
·
Internet MIB II
LAN Manager MIB II
DHCP MIB
WINS MIB
Estructura de la MIB
El espacio de nombre para objetos MIB es jerárquico. Está estructurado de esta manera para que a
cada objeto administrable pueda asignársele un nombre globalmente único. Ciertas organizaciones
tienen la autoridad para asignar el espacio de nombre a partes del diseño de árbol. La estructura
MIB es similar a las direcciones TCP/IP. Obtener solamente una dirección de la InterNIC y luego
aplicar subnetting de acuerdo a lo necesario. No es necesario contactarlos para preguntar acerca
de cada asignación de direcciones. Lo mismo se aplica aquí. Las organizaciones pueden asignar
nombres sin consultar a la autoridad de Internet por cada asignación específica.
Instalación y Configuración de SNMP
SNMP permite a una consola de administración SNMP administrar dispositivos que tengan un
agente SNMP instalado en ellos. SNMP fue diseñado para hacer posible administrar dispositivos de
red, como routers. No obstante, el uso de SNMP ha sido expandido para permitirle poder
administrar prácticamente cualquier dispositivo, incluyendo una computadora, conectado a una red.
Instale el agente SNMP en el sistema operativo de red. Para instalar el agente SNMP en el sistema
operativo de red, siga las instrucciones que vienen con el sistema operativo de red. Una vez
instalado el agente SNMP, debe configurarse con un nombre de comunidad SNMP. El nombre de
comunidad SNMP por defecto es Public. Siempre cambie esto a otra cosa que no sea Public. El
nombre de comunidad es un mecanismo primitivo de contraseña. La consola de administración
SNMP y los agentes SNMP con el mismo nombre de comunidad SNMP pueden intercambiar
información. Si los nombres de comunidad SNMP difieren, no podrán comunicarse. El agente
356
SNMP sabe qué monitorear en el dispositivo de red mirando la Base de Información de
Administración (MIB) del dispositivo. Cada dispositivo de red único tiene una MIB única definida.
Por ejemplo, hay MIBs para routers, hub, switches, computadoras, e incluso algunos paquetes de
software, como sistemas de base de datos. La MIB contiene una lista de los elementos que pueden
ser administrados por SNMP en el dispositivo asociado a la MIB.
Lo Que Hace Realmente SNMP
El siguiente ejemplo rastrea una muestra de tráfico SNMP entre un administrador y el agente.
Recuerde que en la vida real, se utilizará software de administración, como OpenView de HP. Este
software permite a los usuarios ver las MIBs y consultar sin conocer todos los números.
1. El sistema de administración SNMP hace una solicitud de un agente usando la dirección IP
o nombre de host del agente.
· La solicitud es enviada por la aplicación al puerto UDP 161.
· El nombre de host se resuelve a una dirección IP. Si se usó un nombre de host,
usando métodos de resolución de nombre de host; localhost, HOSTS file, DNS,
WINS, broadcast, o archivo LMHOSTS, el paquete SNMP se configura con la
información enumerada dentro, y enruta el paquete al puerto UDP 161 del agente.
· El comando para los objetos: get, get-next, set.
· El nombre de comunidad y cualquier otro dato especificado.
2. Un agente SNMP obtiene el paquete y lo coloca en su buffer.
· Se verifica la validez del nombre de comunidad. Si no es correcto o está
corrompido, el paquete se rechaza.
· Si el nombre de comunidad se aprueba, el agente verifica si el nombre de host o
dirección IP originante también es correcto. Si no, se lo expulsa.
· La consulta se pasa luego a la librería de vínculos dinámicos (DLL) correcta, como
se describe en la sección precedente sobre MIBs.
· El identificador de objetos se mapea a la interfaz de aplicación-programación (API)
y esa llamada se hace.
· La DLL envía los datos al agente.
3. El paquete SNMP se entrega al administrador SNMP con la información solicitada.
Comunidades SNMP
Una comunidad es un grupo de hosts ejecutando el Servicio SNMP al cual todos pertenecen. Éstos
usualmente consisten en al menos un sistema de administración y varios agentes. La idea es
organizar lógicamente sistemas en unidades organizativas para una mejor administración de la red.
Las comunidades se llaman según un nombre de comunidad. Este nombre es sensible al uso de
mayúsculas y minúsculas. El nombre de comunidad por defecto es "public" y en general todos los
hosts pertenecen a él. También por defecto, todos los agentes SNMP responden a cualquier
solicitud usando el nombre de comunidad "public". Usando nombres de comunidad únicos, pueden
proporcionarse una seguridad limitada y segregación de hosts. Los agentes no aceptan solicitudes
ni responden a hosts que no sean de su comunidad configurada. Los agentes pueden ser
miembros de varias comunidades simultáneamente, pero deben configurarse explícitamente como
tales. Esto les permite responder a diferentes administradores SNMP desde diversas comunidades.
357
Seguridad
Realmente no hay una seguridad establecida en SNMP. Los datos no son cifrados, y no hay
configuración para detener a alguien que quiera acceder a la red, descubrir los nombres de
comunidad y direcciones usados, y enviar falsas solicitudes a los agentes.
Una razón importante por la que la mayoría de las MIBs son de sólo lectura es para que no puedan
hacerse cambios sin autorización. La mejor seguridad es usar nombres de comunidad únicos. Elija
Enviar Trampa de Autenticación, especifique un Destino para la Trampa, y estipule Sólo Aceptar
Paquetes SNMP de Estos Hosts. Además, pueden configurarse trampas que permitan a los
usuarios saber si los agentes reciben solicitudes de comunidades o direcciones no especificadas.
De esta manera, la actividad SNMP no autorizada puede rastrearse.
Parámetros de Seguridad SNMP
Pueden configurarse varias opciones que afectan la seguridad del agente SNMP. Por defecto el
agente responde a cualquier administrador que use el nombre de comunidad "public". Puesto que
esto puede estar dentro o fuera de la organización, como mínimo el nombre de la comunidad
deberá cambiarse.
Agente SNMP
En algunos casos se configurarán otros aspectos del agente SNMP. Éstos configuran el tipo de
dispositivos que los usuarios monitorearán y quién es responsable del sistema.
Las opciones disponibles en esta pantalla son las siguientes:
·
·
El nombre de contacto de la persona a ser alertada acerca de las condiciones en esta
estación. En general, éste es el usuario de la computadora.
La ubicación es un campo descriptivo para la computadora para ayudar a mantener un
rastreo del sistema que envía la alerta.
La última parte de la pantalla identifica los tipos de conexiones/dispositivos que este agente
monitoreará. Éstos incluyen:
·
·
·
·
·
Físico Administración de dispositivos físicos como repetidores o hubs.
Aplicación Se lo configura si la computadora Windows NT usa una aplicación que usa
TCP/IP. Tilde este recuadro cada vez. Sólo por usar SNMP, deberá tener TCP/IP
configurado.
Enlace de Datos/Subred Para administrar un bridge.
Internet Hace que la computadora Windows NT actúe como gateway IP, o router.
Extremo a Extremo Hace que la computadora Windows NT actúe como host IP. Tilde este
recuadro cada vez, ya que lo más probable es que el usuario sea un host IP.
Cualquier error con SNMP se registra en el log del sistema. El log registra cualquier actividad
SNMP. Use el Visor de Eventos para mirar los errores y encontrar el problema y las posibles
soluciones.
Notificación Remota
La única mejor manera de ser notificado de situaciones cuando surgen es mediante SNMP, que se
trató antes. SNMP es una aplicación de TCP/IP y disponible para cualquier red que use TCP/IP
como protocolo de red. Esto lo hace disponible para Windows 2000, Windows NT, Linux, OS/2,
etcétera.
Comprenda que la notificación es posible usando SNMP. Variará según el sistema operativo.
Dentro de Windows 2000, por ejemplo, los usuarios pueden establecer umbrales para enviar
notificación cuando existan las condiciones, como cuando la memoria disponible en una máquina
cae por debajo de un nivel especificado.
358
Resumen
Este capítulo trató la administración avanzada de un Sistema Operativo de Red (NOS).
Algunos de los conceptos importantes a retener de este capítulo incluyen los siguientes:
·
·
·
·
·
Existen cuatro tipos de backups. Ellos son completo, parcial, incremental y
diferencial. Automatizar el proceso de backup no sólo incrementa la consistencia del
mismo, sino que también otorga a los administradores de sistemas más tiempo para
tratar otros problemas acuciantes de la red.
El mapeo de unidades crea una ruta o mapa a través de la red a la unidad o carpeta
compartida. Es una herramienta útil que permite a un administrador compartir
recursos que están almacenados en un servidor. Los recursos que están en el otra
computadora de un usuario final pueden mapearse también. Asignar un permiso
permite al administrador del sistema controlar los grupos y usuarios que pueden
acceder a la unidad o carpeta.
El administrador del sistema administra los recursos de la unidad de disco rígido
usando administración de disco. Los mensajes de alerta automatizados notifican al
administrador de sistemas cuando el espacio disponible en disco cae por debajo de
un nivel predeterminado. Otras herramientas que están disponibles son las cuotas.
Una cuota actúa como techo de almacenamiento para limitar la cantidad de datos
que cada usuario puede almacenar en la red.
La mayoría de los sistemas operativos proporcionan un medio de escribir
automáticamente en un archivo de registro del sistema. Este archivo detalla fallos de
dispositivos, intentos fallidos de comunicación, y otras condiciones de error. La
información es un útil punto de inicio para resolver problemas. Por ejemplo, Windows
NT y Windows 2000 proporcionan el Visor de Eventos, que muestra una lista de
eventos del sistema.
La primera regla para resolver problemas es verificar la conectividad física.
Una vez verificada, hay un conjunto de pasos para cada caso de resolución de
problemas para asegurar que todo esté cubierto. Éstos incluirían identificación
del problema, recreación del problema, aislamiento, inicio de una respuesta, e
implementación del plan de corrección, prueba de a respuesta, documentación
de los resultados, y provisión de feedback al usuario final.
12. Instalación y mantenimiento del hardware en Linux
Descripción general
La mayor parte de las distribuciones Linux actuales han evolucionado para ser capaces de
auto-detectar y configurarse a sí mismas para usar el software durante o después de la
instalación. No obstante, habrá situaciones cuando el proceso de auto-detección no ocurrirá.
A veces es necesario configurar manualmente el nuevo hardware o valerse sin la
configuración automática. Este capítulo trata cómo configurar manualmente nuevo hardware
con el diverso hardware que se usa en un sistema Linux. Este capítulo también trata
instalaciones especiales y trucos que será preciso realizar al instalar Linux en una laptop o
dispositivo móvil.
12.1
Términos, Conceptos y Componentes de Hardware
12.1.1
Descripción general de los componentes de hardware
A lo largo de este curso, se ha aprendido a instalar, mantener y solucionar problemas de hardware
en un entorno Windows. También hemos descubierto que los entornos Linux/Unix son diferentes
del entorno Windows. Por lo tanto, en este capítulo, aprenderemos cómo identificar, instalar,
mantener y solucionar problemas apropiadamente en hardware en lo que atañe específicamente a
un sistema Linux, ya que los sistemas Windows y Linux pueden ser muy diferentes.
Uno de los primeros elementos que necesitan tenerse en cuenta al reunir hardware para instalar en
un sistema Linux es la compatibilidad. Linux ha hecho progresos en proporcionar soporte a una
359
gran cantidad de hardware. No obstante, Linux no es compatible con tantas piezas de hardware
como lo es un sistema Windows. Esto es especialmente cierto en el caso de las placas de video,
placas de red, adaptadores host SCSI, y placas de sonido. Estos componentes tienen diversos
problemas de compatibilidad con los sistemas Linux. Investigar un poco en la obtención del
hardware correcto que funcionará en un sistema Linux puede ahorrar mucho tiempo y problemas
en el futuro.
Hasta ahora la mayor parte de este curso se ha concentrado principalmente en la administración
del software Linux. No obstante, el software es sólo un aspecto de los deberes de los cuales es
responsable un administrador de sistemas. La administración del hardware Linux es tan importante
como el conocimiento de cómo administrar el sistema operativo Linux. Al menos la mitad del tiempo
de un administrador de sistemas se emplea administrando hardware. Por lo tanto, lo mejor es
primeramente proporcionar un informe detallado de los diversos componentes de hardware que el
administrador usará o encontrará en un sistema Linux en lo que se relacionan a sistemas Linux
específicamente.
La primera pieza de hardware que necesita mencionarse es el motherboard, que se muestra en la
Figura . El motherboard es el componente al cual otros componentes se conectan. Incluso los
dispositivos externos, que se conectan a través de los puertos USB, serial o paralelos, se conectan
al motherboard. Otras piezas de hardware pueden reemplazarse sin hacer que el sistema se
cuelgue si fallan. No obstante, si el motherboard falla, el sistema no operará.
El motherboard también determina qué tipo de CPU y RAM deben instalar los usuarios en sus
sistemas. Esto es particularmente importante si un usuario está seleccionando un motherboard a
instalar en un sistema Linux. Como se mencionó en capítulos anteriores, una distribución
determinada puede usar sólo determinado procesador. Esto convierte a la elección del
motherboard correcto para un sistema Linux un paso muy importante. La CPU es lo que se conoce
como el cerebro de un sistema informático porque lleva a cabo todo el "pensamiento" o cálculos. Es
importante elegir una CPU compatible con el sistema Linux. La memoria es otro componente de
hardware crucial en cualquier computadora. El término memoria se refiere usualmente a la RAM. Al
instalar RAM, lo cual se muestra en la Figura , los usuarios no tienen realmente que preocuparse
por la compatibilidad con Linux. El usuario puede instalar cualquier RAM de cualquier fabricante en
un sistema Linux. Los únicos problemas de compatibilidad con la RAM son que el usuario debe
instalar el tipo correcto de RAM para el motherboard que selecciona. Por ejemplo, si el usuario
selecciona un motherboard que sólo soporta RAM dinámica síncrona (SDRAM), el usuario debe
adquirir e instalar SDRAM. De igual forma, si el motherboard sólo soporta Rambu DRAM (RDRAM)
o DDR-RAM, entonces el usuario debe instalar ese tipo de RAM.
360
Una vez seleccionado el motherboard, CPU y paquete de memoria para el sistema Linux, hay que
pensar en qué otro hardware es necesario agregar al sistema. El tipo de hardware necesario
depende mucho del uso del sistema Linux o de si el sistema está pensado para ser un servidor. Si
el sistema sólo se utilizará para procesamiento de texto básico, e-mail y acceso a Internet,
entonces el hardware necesario es una unidad de disco rígido de poca capacidad, que se muestra
en la Figura , una unidad de CD-ROM, que se muestra en la Figura , y una placa de video de
bajo costo, que se muestra en la Figura . El usuario podría necesitar hardware más costoso si el
usuario necesita un sistema para editar video, CAD, otro software de dibujo arquitectónico, o si el
usuario necesita un sistema para hacer muchos cálculos matemáticos. Estos sistemas necesitarán
características tales como:
·
·
·
·
·
·
·
Procesadores más rápidos
Más RAM
Placas de video más caras
Unidades de disco rígido más rápidas y de mayor capacidad
Mejores monitores
Unidades de CD-RW y DVD-RW
Parlantes
361
Si el sistema es un servidor, entonces monitores, parlantes o placas de video de alta potencia no
serán necesarios. No obstante, puede ser necesario instalar procesadores, RAM, unidades de
disco rígido, o controladores RAID de alta potencia en servidores.
La principal consideración en el caso de los sistemas Linux es la compatibilidad y el
soporte de controladores. Esto es de mayor importancia al instalar placas de video y placa
de sonido por razones que ya se han tratado en capítulos anteriores. También es importante
recordar que si un administrador está instalando unidades de disco rígido SCSI u otros
dispositivos SCSI, será necesario que instale drivers para los controladores SCSI.
12.1
Términos, Conceptos y Componentes de Hardware
12.1.2
Unidad Central de Procesamiento (CPU)
Los tipos de CPUs que son compatibles con las diferentes distribuciones importantes de Linux se
trataron en los capítulos anteriores. Esta sección trata las especificaciones acerca de estos
procesadores y cómo se relacionan en general a los sistemas Linux. Los procesadores principales
en los cuales se instalará un sistema Linux son Intel, AMD serie K6, Athlon y Duron.
Originalmente, Linux fue desarrollado para Intel 80x86. Este sistema también se denominaba
procesador x86. Linux fue desarrollado en el sistema 386 y aún puede ejecutárselo en ese sistema
hoy. Los usos para tal sistema se mencionaron en capítulos anteriores. Linux también es
compatible con la subsecuente familia de procesadores Intel, como el 486 y toda la clase de
procesadores Pentium.
Otros chips x86 compatibles de otros fabricantes como los procesadores Athlon, Duron y AMD K6
también son compatibles con Linux. La Figura muestra un ejemplo de un procesador. Otros
fabricantes también producen procesadores compatibles con x86. No obstante, estos procesadores
se quedan atrás substancialmente en velocidad y rendimiento. No se tratarán en este curso. En
capítulos anteriores se aprendió que otras distribuciones podían ejecutarse en otros tipos de
procesadores también. Es en general más eficaz en materia de costos usar los procesadores x86 y
Linux parece correr mejor en los procesadores x86. Se recomienda usar procesadores x86 en los
sistemas Linux cada vez que sea posible.
362
El desempeño de la CPU se mide en velocidad de reloj. Esta velocidad se calcula por la cantidad
de pulsos que la CPU produce en una cantidad de tiempo específica. Estas velocidades de
pulsaciones se miden en megahertz (MHz) o gigahertz (GHz, 1 GHz equivale a 1000 MHz). Así,
diferentes procesadores pulsan a diferentes velocidades. Por ejemplo, un procesador Pentium 4 de
2,4 GHz es más rápido que un procesador Pentium III de 1,3 GHz. Las primeras CPUs se medían
en megahertz porque era impensable que algo por encima del nivel de los 1000 MHz o 1 GHz fuera
posible. Esta medición es útil al determinar el rendimiento de un procesador sobre otro. También es
importante notar que al comparar dos procesadores de diferentes fabricantes (incluso aunque
publiciten la misma velocidad de reloj), eso no significa que sean equivalentes. Por ejemplo, un
procesador Pentium de 1,5 GHz podría ser más rápido que un procesador AMD de 1,5 GHz. Si se
comparan dos procesadores de diferentes fabricantes busque el valor MIPS (Millones de
Instrucciones Por Segundo) o alguna prueba que sea relevante al tipo de trabajo a llevar a cabo
con el procesador. El valor MIPS será una mejor representación para comparar dos procesadores
de diferentes fabricantes de igual velocidad reloj.
12.1
Términos, Conceptos y Componentes de Hardware
12.1.3
Hardware de video
Seleccionar y configurar hardware de video, Figura , para un sistema Linux es una tarea más
complicada. Los sistemas Linux que sólo han de ser usados como servidores no necesariamente
tienen que relacionarse con qué placa de video está instalada. Puede instalarse una placa de video
de bajo costo y baja potencia que el kernel Linux ya soporte. El tipo de placa de video es una
preocupación cuando está instalado el componente X server. El X server proporciona la GUI. No
obstante, esta tarea no es tan simple al diseñar un sistema para usuarios. Qué tareas hará este
usuario con el sistema dependerá de qué placa de video se seleccione. Esto hace de elegir una
placa de video que sea compatible con Linux un proceso difícil. También hace difícil a la
documentación acerca de la instalación de Linux.
Los controladores que un sistema Linux usa para operar la placa de video en la GUI no están
ubicados en el kernel. Éstos son parte del X server. Surgirán problemas de compatibilidad al
encontrar una combinación de placa de video y X server. Por esta razón es inteligente investigar las
placas de video que son compatibles con el X server que se está usando. Comience determinando
363
si se está usando el X server por defecto y de fuente abierta, XFree86, o si se está usando uno de
los X servers comerciales que se mencionaron en capítulos anteriores. No planee usar una de las
nuevas placas de video del mercado a menos que use uno de los X servers comerciales. Esto
reducirá levemente el campo de la selección. En general, los controladores se hacen disponibles
para el soporte de un X server comercial antes que XFree86 lance controladores compatibles.
Dependiendo de las necesidades del usuario, un X server comercial puede ser una mejor opción si
se necesita una placa de video en particular.
Otra importante característica de la placa de video que ayudará a determinar qué clase de placa de
video instalar es cuánta RAM tiene la placa de video. Las placas de video fabricadas hoy tienen
sustanciales cantidades de RAM instaladas en ellas. Esto tiene como propósito sacar la carga de la
RAM del sistema. Las GUIs de los sistemas operativos y los juegos han avanzado tanto que
requieren una cantidad decente de RAM sólo para manejar la carga de trabajo. Sin tener RAM
instalada en la placa de video en sí, la RAM del sistema se consumiría, y no quedaría memoria
para las aplicaciones y procesos. Esto haría que el sistema corriera a velocidades extremadamente
lentas, haciéndose inútil, o que directamente se colgara.
12.1
Términos, Conceptos y Componentes de Hardware
12.1.4
Hardware y componentes misceláneos
La mayor parte del hardware instalado en un sistema Linux funcionará porque es conocido en
general como hardware independiente del sistema operativo. Esto también es cierto al instalar el
sistema operativo Linux en un sistema existente donde ya se ha instalado el hardware. Hardware
independiente del sistema operativo simplemente significa que independientemente de qué sistema
operativo se use habrá poca o ninguna configuración, y muy pocos o ningún problema de
compatibilidad.
Un ejemplo de hardware independiente del sistema operativo es el gabinete de la computadora. Al
seleccionar esta pieza de hardware preste mucha atención a su compatibilidad con el otro
hardware que ha de instalarse en el sistema. Por ejemplo, primero asegúrese de que el
motherboard entre en el gabinete de modo tal que los slots y puertos de la parte trasera del
motherboard se alineen con los slots de la parte trasera del gabinete. Además, asegúrese de que
haya los suficientes huecos para las unidades de CD, DVD, CD-R, DVD-R, unidades de disco
rígido removibles, o ventiladores que necesiten instalarse. Asegúrese de que el gabinete vaya a
proporcionar el espacio suficiente para el tipo de disposición de unidad de disco rígido que se vaya
a instalar. La mayoría de los gabinetes proporcionarán el espacio suficiente para al menos dos
unidades de disco rígido. Si hay más de dos unidades de disco rígido, o si se está construyendo un
servidor que pueda tener varios discos rígidos, obtenga un gabinete de computadora que tenga el
espacio necesario.
Otros ejemplos de hardware independiente del sistema operativo son los mouse, teclados,
monitores, disqueteras y unidades de cinta. Estas piezas de hardware funcionan
independientemente del sistema operativo instalado. No deberían requerir ninguna configuración ni
representar ningún problema serio de compatibilidad. Cierto hardware requerirá una configuración
especial si se instala en un sistema Linux. Los siguientes dispositivos pueden requerir
controladores o configuraciones especiales antes de operar apropiadamente con Linux:
Dispositivos USB
En un sistema Linux, instale un controlador por cada dispositivo USB instalado. Algunos de los
últimos kernels Linux proporcionan soporte para algunos dispositivos USB. No obstante, el soporte
no es universal. Esto significa que a menudo se necesitan otros controladores. Para averiguar qué
dispositivos USB se soportan visite http://www.linux-usb.org. La Figura muestra un ejemplo de
una unidad de CD-ROM USB.
364
Placas de sonido
Secciones anteriores ya han enunciado que Linux tiene problemas de compatibilidad con placas de
sonido. Hay varias placas de sonido que soporta el kernel, no obstante placas de sonido no
soportadas pueden usarse si se obtienen los controladores correctos, se los instala y configura
apropiadamente. La Figura muestra un ejemplo de una placa de sonido típica.
Placas de Captura de Video
Las placas de captura de video son un área relativamente nueva que se está haciendo cada vez
más popular. Esto incluye el video digital y las cámaras fijas así como placas internas que aceptan
señales de entrada de televisión. El soporte de Linux para estos dispositivos es irregular como
mucho. No obstante, actualmente se está trabajando para investigar placas de de captura de video
y proporcionar más soporte para este tipo de hardware. En el proyecto Video4Linux están
actualmente trabajando para desarrollar herramientas y soporte para estos dispositivos. Para
enterarse de más, visite su sitio web en http://www.exploits.org/v4l. Siempre verifique para
asegurarse de que el hardware es soportado antes de adquirir e instalar equipamiento costoso.
Módems Internos
Tal como se mencionó anteriormente, Linux tiene problemas también con algunos módems
internos. Esto se debe a que los módems internos de hoy son módems de software que dejan que
la CPU haga algo del trabajo del módem. Estos tipos de módems requieren controladores que
pueden no ser soportados en Linux. Lo mejor es usar un módem más antiguo o verificar para ver si
el fabricante tiene controladores para sistemas Linux. La Figura muestra un ejemplo de un
módem.
365
El foco principal al instalar hardware en un sistema Linux es la compatibilidad. Saber qué
hardware es completamente soportado por Linux y de qué hardware Linux no tiene los
últimos controladores para soportarlo ahorrará tiempo y frustración. Sea cuidadoso respecto
a agregar hardware a un sistema Linux sin verificar primero la compatibilidad. Encontrar
hardware para el cual los fabricantes hayan escrito los controladores Linux puede ser difícil.
Por lo tanto, es una buena idea estar seguro de que los controladores correctos pueden
localizarse para el dispositivo de hardware antes de adquirir o instalar cualquier hardware
en un sistema Linux.
12.1
Términos, Conceptos y Componentes de Hardware
12.1.5
Dispositivos de monitoreo de hardware
La mayor parte de los dispositivos de hardware que se usan para el monitoreo y administración de
la red son meramente computadoras dedicadas que ejecutan software de análisis de protocolo o
administración de red propietario. A menudo se trata de computadoras portátiles. Algunos
dispositivos que pueden resultar útiles para detectar y solucionar problemas en la red incluyen a los
siguientes:
Generador/localizador de tonos (zorro y sabueso)
La porción "zorro" puede conectarse a un extremo del cable, y se genera un tono. Un localizador, o
"sabueso", al otro extremo recibe el tono. Esto muestra que el cable correcto se ha identificado. La
Figura muestra un ejemplo de zorro y sabueso.
Cable cruzado
El cable cruzado es un cable de Par Trenzado Sin Blindaje (UTP) Ethernet en el cual dos de los
pares de alambres están cruzados. Normalmente en UTP, el pin 1 se conecta con el pin 1 del otro
extremo, el pin 2 se conecta con el pin 2, etcétera. En el caso del cable cruzado, los pines 1 y 2 se
conectan con los pines 3 y 6 del otro extremo, y los pines 3 y 6 se conectan a los pines 1 y 2. El
cable cruzado se usa para conectar dos computadoras sin pasar por un hub. También se usa para
conectar dos hubs cuando no hay un puerto enlace arriba. La Figura muestra el esquema de
colores para un extremo de un cable cruzado.
366
Reflectómetro de dominio de tiempo (TDR)
Con un TDR, un pulso similar al de un sonar se envía a través del cable. El pulso se mide para
localizar cortos o roturas en el cable. La Figura proporciona ejemplos de TDRs típicos.
Loopback de hardware
Este dispositivo se conecta al puerto serial para enviar datos, que luego se "reflejan" para ser
recibidos por la misma computadora. Esto hace posible una posible una prueba del puerto serial sin
un módem u otro dispositivo conectado a la computadora.
Medidor de volts-ohms digital
El medidor de volts-ohms, o voltímetro, se usa para medir impulsos electrónicos a través del cable
y para determinar si hay cortos o roturas en el cable. La Figura muestra un ejemplo de un
medidor de volts-ohms digital.
367
Probador de cables
Un probador de cables se usa para detectar roturas y cortos. Un probador de cables avanzado
puede mostrar información adicional acerca de la condición y propiedades del cable. La Figura
muestra un ejemplo de un probador de cables.
Osciloscopio
Un osciloscopio se usa en calibración electrónica. También se lo usa para medir el voltaje digital
que pasa a través de un cable. La salida va a un pequeño monitor en forma de onda. Esto puede
mostrar la atenuación ocasionada por cortos o alambres crimpeados en el cable. La Figura
muestra un ejemplo de un osciloscopio.
Medidor de LAN
Un medidor de LAN puede verificar broadcasts, colisiones, niveles de uso, y errores en LANs
Ethernet y Token Ring. Puede medir el throughput a través de las WANs. Un medidor de LAN
también puede identificar dispositivos conectados a la red. La Figura muestra un ejemplo de un
medidor de LAN.
368
12.2
Instalación, Configuración y Mantenimiento del Hardware
12.2.1
Localización de controladores de hardware para Linux
Las secciones anteriores trataron determinadas piezas de hardware usadas en sistemas
informáticos, instalación, y configuración de algún hardware en los sistemas Linux, como
impresoras. Se reconoció que instalar y configurar hardware en Linux no es tan fácil y sin
complicaciones como lo es en un sistema Windows. Un ejemplo de un capítulo anterior es que las
impresoras operan externamente y los controladores están ubicados en Ghostscript.
Instalar y configurar hardware en un sistema Windows no siempre es la cosa más fácil de hacer.
Ocasionalmente pueden surgir problemas de compatibilidad, pero en su mayor parte el soporte
siempre estará disponible. Puesto que los sistemas operativos Windows son comercialmente
populares, los fabricantes de hardware necesitan asegurarse de que sus productos tengan
controladores que soporten a la familia de sistemas operativos Windows. Junto con este amplio
rango de soporte de hardware para los sistemas Windows, instrucciones detalladas de instalación
también se proporcionan con el hardware. Las instrucciones vienen con el dispositivo o pueden
estar localizadas en el sitio web del fabricante. Este soporte y compatibilidad de amplio rango de
hardware no es tan prevaleciente, y en algunos casos es inexistente para los sistemas Linux. La
mayoría de los usuarios deben hallar su propio camino para instalar y configurar hardware en los
sistemas Linux. Algunos fabricantes de hardware ni siquiera tienen controladores disponibles para
Linux. Incluso cuando hay controladores disponibles, en ocasiones éstos no vienen con el producto.
Los controladores necesitan localizarse con proveedores de terceros, o hallarse en algún otro lado.
La documentación acerca de la instalación o configuración en los sistemas Linux también es mucho
más difícil de encontrar. Existen varias fuentes posibles de controladores de hardware para un
sistema Linux. En un sistema Linux, el kernel servirá como interfaz entre el sistema operativo, que
es el software, y el hardware. La mayoría de los controladores Linux están ubicados inicialmente en
el kernel Linux, o son agregados a él de alguna forma. Algunos controladores de hardware como
impresoras, escáners y placas de video no se localizan en el kernel. Estos dispositivos residen
externamente en software fuera del kernel. Un ejemplo de controladores de hardware son los
controladores de impresora en un sistema Linux. Están ubicados en el software de cola de
impresión Ghostscript. Ubicaciones posibles de controladores Linux se enumeran a continuación.
Nuevos Controladores en el Kernel
Nuevos controladores se hacen disponibles para el hardware que se descarga de los sitios web de
los fabricantes. A veces estas actualizaciones se hacen disponibles a través de una nueva versión
del kernel.
Kernel Linux
Como se mencionó previamente, muchos controladores Linux se localizan en el árbol del kernel
principal. El kernel deberá ser el primer lugar para buscar controladores. La mayoría de las
distribuciones no compilarán estos controladores directamente en el kernel por lo que a veces es
necesario recompilar o actualizar el kernel para obtener acceso a los controladores.
369
Fabricantes de Hardware/Dispositivos
Tal como se mencionó anteriormente, puede ser difícil encontrar controladores para Linux porque
algunos fabricantes no hacen controladores soportados por los sistemas operativos Linux. No
obstante, más fabricantes están comenzando a hacer controladores para sistemas Linux.
Dispositivos USB
Los kernels que vienen con las últimas distribuciones de Linux proporcionan un maravilloso soporte
para controladores USB. Estas distribuciones soportan una amplia variedad de dispositivos USB
incluyendo teclados, mouse, módems externos, impresoras, unidades zip, e impresoras. Recuerde
que algunos dispositivos USB como escáners e impresoras requieren paquetes secundarios. Los
paquetes secundarios incluyen controladores para cosas como Ghostscript. Para más información
acerca de dispositivos compatibles con USB con Linux diríjase a http://www.linux-usb.org.
Ghostscript
Como se mencionó anteriormente en este capítulo, los controladores de impresoras están ubicados
en el software de impresión Ghostscript.
Módems de Software
Existen dos tipos de módems, externos e internos. Los módems externos son compatibles con el
controlador de puerto serial estándar de Linux. Los módems internos o módems de software tienen
un soporte limitado a los controladores en sistemas Linux. Una buena referencia al instalar
cualquier módem de software en un sistema Linux es http://www.linmodems.org. Este sitio contiene
más información acerca de controladores para módems de software para Linux.
Controladores para Placa de Sonido
El kernel Linux que viene con la mayoría de las distribuciones de Linux soporta diversas placas de
sonido. No obstante, aún hay placas de sonido que no son soportadas, lo cual hace al soporte de
sonido de Linux algo muy débil. Hay dos proyectos actualmente en desarrollo para mejorar el
soporte de placa de sonido para los sistemas Linux. Primero, la Arquitectura de Sonido Linux
Avanzada (ALSA), http://www.alsa-project.org, es una iniciativa de fuente abierta. El segundo,
Sistema de Sonido Abierto (OSS), http://www.4front-tech.com, es una iniciativa de liderazgo
comercial para desarrollar un mejor soporte para placas de sonido para sistemas Linux.
Escáners
Los controladores para escáners no están ubicados dentro del kernel Linux. También hay iniciativas
de proyectos de fuente abierta y comerciales para soporte de controladores de escáners para
Linux. El proyecto Acceso a Escáner Ahora Fácil (SANE), http://www.sane-project.org/, es la
iniciativa de fuente abierta. El OCR shop, http://www.vividata.com/index.html, es la iniciativa de
liderazgo comercial. OCR funciona independientemente de SANE.
X servers
Hay más de un X server de donde elegir para instalar en un sistema Linux. El soporte para
controladores de placa de video para estos X servers puede encontrarse en sus sitios web
correspondientes. XFree86, que es el X server por defecto para Linux, tiene controladores en su
sitio http://www.xfree86.org. A veces la placa de video instalada no funcionará con los
controladores para XFree86. Recuerde usar otros X servers comerciales que soportarán la placa de
video que se use. Ejemplos de éstos son Accelerated X, http://www.xig.com, y ATI,
http://www.ati.com/support/faq/linux.html.
Hay otros controladores que pueden requerir controladores especiales, como software, para
permitir al usuario usar el dispositivo. Estos otros controladores se mencionan a causa de su
creciente popularidad hoy. Ejemplos de hardware son unidades CD-R, CD-RW, DVD-R, o DVDRW. Las unidades CD-R y CD-RW requieren otro software como X-CD Roast,
http://www.xcdroast.org , para quemar CDs. Este software deberá venir con los discos de
instalación. http://gphoto.sourceforge.net/, es software para cámaras digitales. Estos paquetes de
software contienen controladores de bajo nivel, como controladores SCSI o USB. Los controladores
de bajo nivel permiten al dispositivo interactuar con el kernel Linux. No obstante, es el software que
370
permite al usuario usar el dispositivo y esencialmente le permite funcionar.
12.2
Instalación, Configuración y Mantenimiento del Hardware
12.2.2
Configuración del hardware en un sistema Linux
Configurar hardware en un sistema Linux puede ser complejo, por lo que requiere atención especial.
Cierto hardware puede resultar fácil de instalar en un sistema Linux porque no requiere el atravesar
varios pasos. Los pasos para configurar hardware en Linux se tratarán en esta sección. Un
administrador Linux experto podrá instalar cualquier hardware en un sistema Linux. Si esta
configuración es un proceso fácil o complejo depende de diversos factores, como el tipo y modelo
de hardware que se está usando.
Reemplazo de Hardware
Gran parte de la configuración del hardware que necesita hacerse se hace cuando se instala un
nuevo dispositivo. Los nuevos dispositivos pueden instalarse para agregar un usuario o reemplazar
dispositivos existentes. En cualquier caso hay algunos pasos específicos y precauciones que
necesitan seguirse al configurar hardware en un sistema Linux. Diferentes procedimientos se
requieren dependiendo del tipo de hardware a instalar. Ejemplos son dispositivos externos,
dispositivos internos o placas de expansión internas.
Los dispositivos externos están actualmente disponibles para muchos dispositivos. Algunos de los
dispositivos externos son unidades de disco rígido, unidades de CD, CD-R, DVD-R, cámaras
digitales, escáners, e impresoras. Ésta no es una lista conclusiva. Los dispositivos externos se
conectan al sistema mediante puertos USB, puertos SCSI, puertos serial o puertos paralelos. Los
conectores en estos dispositivos son muy específicos. Sólo pueden conectarse en sus puertos
correspondientes. Por ejemplo, un dispositivo USB externo sólo encajará en un puerto USB. Esto
hace muy difícil no conectar el dispositivo al sistema correctamente. Los dispositivos externos
también tendrán una segunda conexión que se conectará a una salida de pared para obtener
alimentación. Todos estos dispositivos, a excepción de los dispositivos USB, deberán conectarse al
sistema cuando éste esté apagado.
Los dispositivos internos también se conectan al sistema por medio de dos cables. Estos
dispositivos se conectan en general al motherboard o a la placa de expansión. Un cable se usa para
datos y el otro se usa para alimentación. El cable de alimentación es fácil de instalar. Se enchufa a
una de las salidas de alimentación y hay sólo una manera de conectar el cable. El cable de datos
puede ser confuso en cuanto a en qué parte del motherboard se enchufa. Consulte la
documentación del dispositivo para obtener la ubicación correcta del cable de datos. Los
dispositivos internos en ocasiones se colocan en el sistema mediante tornillos. A veces la instalación
requiere quitar otros dispositivos para instalar el nuevo dispositivo. Documente cómo se configuró o
instaló el sistema antes de quitar cualquier dispositivo. Esto hará mucho más fácil reensamblar el
sistema.
Las placas de expansión internas son bastante fáciles de instalar en el motherboard del sistema.
Simplemente se deslizan en su slot correspondiente del motherboard como se ve en la Figura .
Placas de sonido, placas de video, módems de software, tarjetas SCSI, y controladores RAID son
todos ejemplos de placas de expansión internas. Nuevamente, sólo un determinado tipo de placa
puede insertarse en cada slot haciendo casi imposible no instalar el dispositivo correctamente. Por
ejemplo, una placa ISA sólo encajará en un slot ISA del motherboard. Siempre apague el sistema
antes de instalar cualquier placa de expansión interna.
371
Adjudicación de Recursos
Hay algo importante a saber acerca de la instalación de hardware en cualquier sistema, incluyendo
Linux. Hay una cantidad limitada de recursos que se adjudican a los dispositivos que se instalan en
un sistema. Estos recursos incluyen:
·
·
·
La solicitud de interrupción (IRQ), que señala a la CPU cuando ocurre un evento de
hardware
El canal de Dirección de Memoria Directa (DMA), que es lo que permite la transferencia de
datos
El puerto de Entrada/Salida (I/O) que también es un medio de transferencia de datos
Cada dispositivo requiere al menos una asignación de IRQ, DMA, y puerto de I/O. Si hay
demasiados dispositivos instalados, pueden tener lugar conflictos de adjudicación de recursos.
Algunos dispositivos pueden compartir estos recursos. No obstante, si se configuran los dispositivos
para compartir recursos, asegúrese de que sean dispositivos que necesiten adjudicar los recursos al
mismo tiempo.
Para ver las adjudicaciones de recursos en un sistema Linux, vea los archivos /proc/interrupt,
/proc/dma, /proc/ioports. Usando el comando cat, vea qué dispositivos están adjudicados. La Figura
muestra las asignaciones de rango de I/O. Como se aprecia en el ejemplo de la Figura , cada
número de IRQ a la izquierda corresponde a un dispositivo a la derecha. Si usa una interfaz GUI
como KDE por ejemplo, vea las adjudicaciones de recursos usando la herramienta Centro de
Control de la GUI. La Figura muestra la herramienta Centro de Control de la GUI. Referirse a las
asignaciones en la Figura antes de instalar nuevo hardware es importante. Referirse a los
archivos puede ayudar a determinar qué recursos están disponibles todavía, si los hay. Esto no
funcionará al instalar un dispositivo SCSI o USB. Los dispositivos que usan estos puertos no usan
puertos típicos IRQ, DMA, o I/O. Estos tipos de dispositivos usan puertos que ya están instalados,
por lo cual la adjudicación de recursos no es una preocupación. Esto hace de los dispositivos SCSI
o USB buenas alternativas para sistemas que tienen mucho hardware. Hace de agregar nuevo
hardware un proceso mucho más simple.
372
Configuraciones de Jumpers
Otro aspecto de la configuración de hardware es configurar los jumpers apropiados para un
dispositivo, como lo muestra la Figura . El jumper es un pequeño puente de metal hecho de pines
hembra, cubiertos de plástico. Quitando o instalando el jumper en los pines macho del dispositivo,
los parámetros operativos de un dispositivo pueden cambiarse. Por ejemplo, cambiar de lugar los
jumpers puede usarse para habilitar o inhabilitar funciones, como configurar una unidad master o
esclava. Hoy no debería tener que configurar ningún jumper para las placas de expansión porque la
mayoría de las placas de expansión de hoy usan tecnología plug-and-play en lugar de
configuraciones de jumpers. Los jumpers se usan principalmente para ajustar configuraciones en
hardware como CD-ROMs, disqueteras y unidades de disco rígido. Los jumpers también se usan
para ajustar configuraciones en los motherboards, como velocidad de la CPU. También pueden
usarse a veces para controlar cosas como asignación de IRQ o DMA.
Configuraciones Plug and Play
Desde mediados a fines de los '90 la mayoría de los dispositivos de hardware han sido configurados
mediante tecnología plug-and-play (PnP) en lugar de usar jumpers. El propósito del dispositivo Plugand-Play es ser capaz de conectar el dispositivo, y tener toda la configuración hecha
automáticamente por el sistema operativo. Como sucede con la mayoría de las configuraciones de
Linux, hay unos pocos pasos extra que podrían ser necesarios.
Las dos formas en las cuales PnP es manejado en sistemas Linux es el programa isapnp y
mediante una opción de configuración ISA en el kernel Linux. El programa isapnp se usa para leer
opciones de configuración PnP de un archivo para configurar opciones para dispositivos PnP
cuando éstos son instalados. La mayoría de las distribuciones están configuradas para iniciar
automáticamente este programa cuando se inicia el sistema. Debería detectarse y configurarse
automáticamente usando la tecnología PnP. Otra forma en que PnP es manejado por Linux es
mediante una opción de configuración ISA en el kernel Linux. El kernel Linux 2.4.X incluye soporte a
PnP ISA que no requiere el programa isapnp. Ésta es la opción más probable con la versión de
Linux que se está usando en este curso. Las distribuciones Linux que usan esta versión del kernel
Linux auto-detectan dispositivos PnP ISA. Son configurados por el kernel. Es importante recordar
que no hay soporte PnP para dispositivos de hardware PCI porque el kernel Linux o el BIOS
configuran estos dispositivos automáticamente.
373
Carga de Controladores y Opciones de Configuración
El paso final de la configuración de hardware en un sistema Linux es poder cargar los controladores
apropiados y configurar las opciones correctas en relación al controlador. Éste puede ser el paso
más crítico de la configuración de hardware en un sistema Linux porque sin el controlador correcto
cargado el hardware no funcionará. En algunos casos tener cargado el controlador incorrecto hará
que el sistema deje de funcionar del todo.
Hay dos formas en que un controlador puede cargarse en un sistema Linux. El controlador puede
incluirse en el kernel Linux o los controladores pueden cargarse desde módulos. Otros controladores
como los de Ghostscript o SANE que no están asociados con el kernel pueden tener los
controladores cargados dentro de la aplicación. Deben cargarse separadamente. Este proceso es
muy generalizado con los controladores Ghostscript que no están ubicados dentro del kernel y
deben cargarse desde la aplicación Ghostscript. Los controladores SANE se cargan en general
desde módulos. El segundo método es el más simple de las dos formas en que puede cargarse un
controlador. Si el controlador está ubicado dentro del kernel Linux, entonces debería cargarse
automáticamente cuando el hardware que usa el controlador específico es instalado. El kernel Linux
tiene muchos controladores que se incluyen con él. Es posible agregar controladores al kernel.
Hacerlo, no obstante, requiere recompilar el kernel. No se recomienda que usuarios inexpertos
intenten recompilar el kernel, especialmente en un sistema de producción. Recompilar el kernel
Linux se trató en capítulos anteriores. La siguiente sección tratará la carga de Módulos del Kernel
Linux.
Habrá algunos casos en los cuales los controladores cargados necesitarán la configuración de
algunas opciones extra. La mayoría no necesitará configrurar ninguna opción pero podría necesitar
definir configuraciones de hardware específicas para el controlador. En algunos casos el controlador
puede necesitar que se le indique que dos piezas idénticas de hardware, como placas de red, han
sido instaladas. Las dos formas en las cuales las opciones pueden configurarse para los
controladores son mediante las opciones del kernel y las opciones del módulo. Para configurar las
opciones de los controladores mediante el kernel, reconfigure archivos de configuración específicos
que pasen estas opciones directamente al kernel. Por ejemplo, para especificar una asignación de
IRQ e I/O diferente para una placa de red que no sea la del controlador por defecto, edite el archivo
de configuración /etc/lilo.conf, Figura , que pasa estas opciones al kernel. Para cambiar la IRQ a
10 y el puerto de I/O a 6200 que la placa Ethernet usa agregue la línea,
append="ether=10,0x6200,eth0" a /etc/lilo.conf. Si el controlador se carga mediante un módulo,
entonces introduzca las opciones de controladores en el archivo /etc/modules.conf. Este método se
trata en la siguiente sección.
374
12.2
Instalación, Configuración y Mantenimiento del Hardware
12.2.3 Módulos del Kernel Linux
Se mencionó en la sección anterior que hay dos formas en las cuales los controladores se cargan
en un sistema Linux. Están incluidos en el kernel o se cargan de aplicaciones o módulos. Cuando
los controladores están incluidos en el kernel, se instalan y están disponibles para el sistema cuando
se instala el sistema operativo. Los módulos del kernel son muy similares a los archivos
controladores que se cargan en otros sistemas operativos, como Windows.
El primer paso para comprender cómo cargar y descargar módulos del kernel es saber qué son los
archivos de configuración de un módulo del kernel y dónde están ubicados. Hay dos archivos en un
sistema Linux que manejan la configuración de módulos. El primer archivo, /etc/modules.conf,
contiene información acerca de módulos que se usan para tareas específicas, así como información
acerca de cómo el kernel carga y descarga módulos. El segundo archivo,
/lib/modules/x.x.x/modules.dep, contiene información acerca de las dependencias de los módulos
que se basan en otros módulos en /etc/modules.conf. Las x.x.x en el archivo de arriba es la versión
del kernel que se está usando.
Carga y Descarga de Módulos del Kernel
Las últimas distribuciones de Linux incluyen soporte para cargador del módulo del kernel. Una de las
últimas distribuciones de Linux es la versión de Red Hat Linux que se usa en este curso. Soporte
para cargador del módulo del kernel significa que el kernel tiene la capacidad de cargar y descargar
controladores a medida que los necesita. Cuando se usa un dispositivo, como un dispositivo USB, el
kernel cargará automáticamente el módulo apropiado y luego el kernel lo descargará cuando el
dispositivo ya no esté en uso. Este sistema funciona bien para dispositivos que tienen controladores
o módulos cargados en el kernel o en /etc/modules.conf. La Figura muestra un ejemplo de
controladores cargados en el archivo modules.conf. Cuando se instala un dispositivo o éste necesita
ser usado y el kernel no puede cargar o descargar automáticamente módulos para él, será
necesario usar otros programas para cargar y descargar el controlador o módulo apropiado. Estos
programas pueden incluirse en scripts de inicio para que se carguen cuando arranca el sistema.
También pueden ejecutarse desde la línea de comandos cuando el dispositivo es necesario. Se
recomienda el uso del método del script de inicio para evitar que los usuarios tengan que cargar y
descargar controladores.
El Programa insmod
El programa insmod, Figura , se usa para insertar un único módulo en el kernel. La sintaxis para
este comando incluye agregar el nombre del módulo que se está cargando junto con cualquiera de
las opciones enumeradas en la Figura .
375
Por ejemplo, el siguiente comando cargará el módulo parport. Este módulo se usa para proporcionar
funciones centrales para compartir un puerto paralelo con varios dispositivos.
#insmod -k parport
Los nombres de módulos del disco rígido se caracterizan por una .o final. Por ejemplo, el nombre de
archivo para el módulo anterior es parport, pero el nombre real del módulo sería partport.o. Estos
módulos se almacenan en subdirectorios de /lib/modules/x.x.x, donde x.x.x es la versión del kernel.
El programa insmod es una herramienta muy útil, no obstante, tiene algunas limitaciones. Primero,
sólo puede usarse para cargar un controlador o módulo a la vez. Además, como se aprendió
anteriormente, hay muchos controladores y módulos que tienen dependencias en otros
controladores o módulos que se cargan para que los controladores y módulos funcionen. Usando el
programa insmod, cargue cada uno de ellos manualmente. Si se usa un script de inicio para cargar
los controladores y módulos, coloque una entrada en el script para cada módulo que sea una
dependencia del controlador o módulo que necesita cargarse.
El Programa modprobe
El programa modprobe, Figura , reduce esta sobrecarga administrativa cargando automáticamente
cualquier dependencia que tenga un módulo. Todo lo que hay que hacer es cargar el módulo
necesario. El programa modprobe usa el contenido de modules.dep para determinar qué módulos
deben cargarse para usar los módulos que se pretende. Hay varias opciones que pueden usarse
con el programa modprobe. Por ejemplo, la opción -k usada con insmod también se usa con
modprobe y lleva a cabo la misma función. Unas pocas opciones adicionales se enumeran en la
Figura .
376
Por ejemplo, el siguiente comando cargará el módulo parport y todos los módulos de los cuales este
módulo tiene dependencias. Este módulo se usa para proporcionar funciones centrales para
compartir un puerto paralelo entre varios dispositivos.
# modprobe -k parport
El Programa rmmod
El programa rmmod, Figura , puede usarse para quitar controladores o módulos. El programa
modprobe con la opción -r o -remove también eliminará módulos. No obstante, al usar este
programa en lugar de la opción con modprobe permite introducir algunas otras opciones. El
programa rmmod proporciona más flexibilidad al eliminar módulos que si se usa la opción -r o remove con el comando modprobe. Ejemplos de las opciones que pueden usarse con este comando
se muestran en la Figura .
Este comando, como el anterior, no debería necesitarse para un uso regular. Cualquier comando
para cargar módulos necesarios deberán colocarse en un script de inicio que los cargará cuando
arranca el sistema. Después de eso, no debería haber razones para usar ninguno de estos
comandos excepto con propósitos de resolución de problemas. Éste es el caso especialmente del
programa rmmod más que de los otros. Usar este comando es una buena herramienta de resolución
de problemas que puede usarse para eliminar módulos si se sospecha que hay un problema.
377
El Programa lsmod
El programa lsmod, Figura , se usa con propósitos diferentes que los otros comandos que se
acaban de mencionar. Los otros comandos se usan para cargar y descargar módulos. lsmod es un
comando útil porque revela qué módulos se están usando actualmente y qué dispositivo los usa, así
como otra información. lsmod también enumera los tamaños de los módulos y de los módulos de
dependencia. Refiérase a la Figura ; note que hay otra información importante que se revela con
este comando. Note qué módulos están actualmente cargados pero no se los usa. Esto significa que
han sido cargados sin la opción -k para que los módulos sigan cargados incluso si no están en uso.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.1 Cables de alimentación
Una de las primeras cosas que necesitarán verificarse es el cableado. Hay varios dispositivos que
usan diversos cables. Los cables se usan para vincular el dispositivo al motherboard o a una placa
controladora en el motherboard. Dependiendo de qué dispositivo se está instalando, estos cables
pueden ser enteramente internos o externos. Como trataremos en esta sección, una instalación de
cableado apropiada puede ser la diferencia entre un dispositivo que funcione o que no funcione.
Algunos tipos de cables tienen algunos requisitos específicos.
Hay dos tipos de cables de alimentación. El primer cable de alimentación es el que conecta la salida
de la pared, el protector contra picos, o fuente de alimentación ininterrumpida (UPS) a la parte
posterior de la computadora. Este cable es externo y no necesariamente el cable de mayor interés al
instalar un dispositivo de hardware.
El otro tipo de cable de alimentación es interno. Este cable conecta la fuente de alimentación interna
a los dispositivos de hardware, Figura . Estos cables se conectan a y se usan para brindar
alimentación al motherboard y a otros dispositivos de disco como discos rígidos, disqueteras, o CDROMs. Estos cables de alimentación tienen varios tipos de conectores, que se usan para conectar a
diferentes dispositivos. La mayor parte de las fuentes de alimentación tendrán aproximadamente
seis de estos cables de alimentación que se extienden desde la fuente de alimentación interna.
Habrá un cable que tiene un conector que se enchufa al motherboard, uno que se enchufa a la CPU,
y otros que se enchufarán a los diversos dispositivos de disco. Verifique y confirme que se haya
hecho una conexión apropiada a cada dispositivo que requiere una conexión de uno de estos cables
de alimentación, una vez que haya sido instalado. Una conexión suelta o inestable hará que un
dispositivo no funcione.
378
Cables Internos
Otros tipos de cables internos son los cables de datos. Estos cables permiten a los dispositivos
enviar datos de un dispositivo a otro. Usualmente los cables se extenderán desde una placa
controladora del motherboard a una unidad de disco o cinta, que almacena los datos. La forma más
común de cable de datos que se usa es el cable ribbon. La Figura muestra un cable ribbon típico.
Algunos de estos cables tienen características distintivas que los diferencian de otros cables ribbon.
Algunos tienen diferentes anchos y longitudes. Otros tienen una torcedura en ellos, que se usa para
identificar al cable de datos de la disquetera. Figura .
Al igual que con los cables de alimentación, verifique y asegúrese de que se ha hecho una conexión
apropiada. Esto es probablemente más importante en cables de datos que en cables de
alimentación. Es mucho más probable cometer un error conectando cables de datos que cables de
alimentación porque los cables de alimentación pueden conectarse de una única manera. Los
cables de datos parecen iguales desde todos lados haciendo más difícil comprender cómo deben
conectarse. Algunos cables tienen trozos de plástico en el extremo llamados salvaguardias. Los
salvaguardias evitan que los cables se instalen al revés. La única manera de asegurarse de que el
cable de datos está instalado apropiadamente es primero localizar la franja roja en el cable de datos.
Esto identifica al lado del pin #1 del cable. El pin #1 correspondiente en el slot del motherboard
necesita alinearse con el pin #1 del cable de datos. Una vez que éstos se han localizado el cable
puede insertarse. Asegúrese de que se haya hecho una conexión firme porque algunos de estos
cables pueden ser ajustados y difíciles de conectar por completo. Sin una conexión apropiada el
dispositivo no funcionará.
Al instalar dispositivos SCSI algunos de los cables de datos no se conectarán a un dispositivo en
absoluto porque podría haber más cables que los dispositivos disponibles. Por ejemplo, si dos
unidades SCSI se instalaron con un cable con cuatro conectores en él. Un extremo se conectaría a
la placa controladora SCSI y los otros dos se conectarían a las unidades, dejando un cable extra. La
Figura muestra ejemplos de cables SCSI comunes.
379
Hay otros tipos de cables que transportan datos además de los cables ribbon. Al instalar unidades
de CD, CD-R o CD-RW conecte un cable de 3 alambres desde la salida de audio de la unidad a la
placa de sonido. Este cable permitirá que se reproduzca el sonido de los CDs de la unidad. También
hay cables que vinculan el motherboard a componentes del panel frontal del gabinete, como el
botón de encendido, el botón de reseteado, y la actividad del disco rígido.
Cables Externos
Los Cables Externos son los cables que conectan la computadora a los dispositivos externos como
teclados, mouse, monitor, impresoras, escáners y conexiones de red. En el caso de cualquiera de
estos dispositivos es importante instalar el cable correcto en el espacio correcto del gabinete de la
computadora. Algunos de estos cables tienen mecanismos que se traban para asergurar una
conexión ajustada y otros tienen tornillos que se atornillan al gabinete de la computadora. Algunos
cables, como USB, Figura , o cables de teclado, no tienen nada para asegurar una conexión
ajustada. Es importante asegurarse de que estos cables estén apropiadamente conectados.
Uno de los conceptos más importantes al conectar cables externos es asegurarse de que el cable
está enchufado al puerto apropiado. Esto es particularmente cierto en el caso de los puertos serial
porque la mayoría de los gabinetes de computadora tienen más de uno. Además, al enchufar los
parlantes a los puertos de la placa de sonido, asegúrese de usar los puertos apropiados. El puerto
para los parlantes tiene el mismo aspecto que el puerto para el micrófono o para entradas de audio.
La mayoría de los gabinetes de computadora tienen una codificación por colores en los puertos que
indica cuál es el puerto del teclado y cuál el del mouse. Estos dos puertos tienen exactamente el
mismo aspecto por lo tanto es importante enchufar el cable apropiado en el puerto apropiado. De
otro modo el dispositivo no funcionará.
380
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.2 Configuraciones IRQ, DMA, e I/O
La mayor parte del hardware, específicamente las placas controladoras ISA y PCI, que se insertan
en el motherboard usan recursos del hardware ubicado en el motherboard. Estos recursos se
denominan Solicitud de Interrupción (IRQ), Canal de Acceso a la Memoria Directa (DMA), y el
puerto de Entrada/Salida (I/O). Estos recursos son limitados, lo cual significa que sólo se dispone
de cierta cantidad de ellos. Hay un total de quince (15) IRQs. Cada IRQ está reservada para un
dispositivo específico. La Figura muestra todos los números de IRQ y los dispositivos
correspondientes. También hay una cantidad limitada de canales DMA. Hay más puertos de I/O
disponibles que canales DMA o IRQs, pero aún así pueden ocurrir conflictos con los puertos de I/O.
El motherboard usa la IRQ para enviar una señal a la CPU de que un dispositivo está a punto de
llevar a cabo una función y necesita la atención de la CPU. Las asignaciones de IRQ evitan que
ocurran conflictos manteniendo separadas las solicitudes a la CPU. Los canales DMA y los puertos
de I/O se usan para transferir datos desde el motherboard a la CPU o a la memoria. La Figura
muestra ejemplos de puertos de I/O.
381
Al instalar cualquier dispositivo es importante verificar y confirmar que no haya conflictos de IRQ,
DMA, o puertos de I/O. Dos placas ISA que usan la misma IRQ pueden resultar en que una placa
no funcione o hacer que el sistema se cuelgue. Las placas PCI pueden a veces compartir el mismo
número de IRQ, pero esto no se recomienda a menos que sea absolutamente necesario. Pueden
ocurrir conflictos que pueden hacer que el sistema se cuelgue o hacer que el hardware no funcione
apropiadamente.
La mayor parte de las placas de hoy tienen los números de IRQ, DMA, y puerto de I/O configurados
automáticamente en el BIOS o configurados usando software. Las placas ISA antiguas pueden
tener los jumpers configurados manualmente. La ventaja de configurar manualmente los jumpers
es que ajustar el jumper podría resolver cualquier conflicto que pueda surgir. La nueva
configuración de estas placas requieren que el sistema arranque primero. Esto hace imposible
saber qué recurso de hardware usarán las placas hasta que el sistema no se inicie. Si un conflicto
de recursos tiene lugar, podría impedir que el sistema arrancara. El Capítulo 13 trata los pasos a
seguir cuando ocurre este problema.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.3
Dispositivos EIDE
Los dispositivos EIDE son usualmente unidades de disco rígido, disqueteras, CD-ROMs, y otros
tipos de unidades de disco y cinta. Hay varios tipos diferentes de dispositivos EIDE de los cuales
elegir. Las diferencias se encuentran en las velocidades de transferencia de datos. Los dispositivos
de baja potencia usualmente comienzan a partir de los 8 MB/s. Los dispositivos de alta potencia
usualmente llegan a un tope de 100 MB/s. Algunas velocidades comunes para transferencia de
datos son 33 MB/s, 66 MB/s, y 100 MB/s. Los dispositivos EIDE reciben varios nombres, que
incluyen la velocidad en él. El UltraDMA33 y el ATA66 son nombres comunes de dispositivos
disponibles en el mercado.
Una cosa a verificar y confirmar al instalar dispositivos EIDE es que estén configurados
apropiadamente como Master o Esclavo. Es posible que dos dispositivos usen el mismo cable
EIDE porque el cable proporciona tres conexiones. Una de ellas conecta al motherboard o
controlador. Las otras dos conexiones se conectan a dispositivos EIDE. No es obligatorio usar
ambas conexiones EIDE, pero están ahí si la necesidad surgiera. La cantidad de interfaces EIDE
en el motherboard es limitada. Ésta es una buena forma de instalar dos dispositivos y usar sólo una
interfaz en el motherboard. Si se han de usar dos dispositivos, configure un dispositivo como
master y el otro dispositivo como esclavo. Para ello, configure manualmente los jumpers en el
dispositivo en sí según convenga. Sin verificar y confirmar las configuraciones de jumper como
master y esclavo, los dispositivos no funcionarán. En Linux, la unidad master toma la letra de
dispositivo más baja en su nombre de archivo /dev/hdx, donde x es la letra de dispositivo. Por
ejemplo la unidad master sería /dev/hda y la unidad esclava sería /dev/hdb. La Figura muestra la
adjudicación de dispositivos EIDE en una computadora que corre Linux.
382
La mayoría de los motherboards tendrán dos interfaces EIDE en ellas, lo cual permite un total de
cuatro dispositivos EIDE en el sistema. Es posible instalar placas EIDE, que permitirá la instalación
de más dispositivos EIDE. También es importante saber que si se usan ambas interfaces EIDE,
una interfaz EIDE del motherboard será la interfaz EIDE principal y la otra será la interfaz EIDE
secundaria. Se recomienda colocar la unidad que contiene el Registro de Arranque Maestro en la
interfaz EIDE principal.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.4
Dispositivos SCSI
Instalar dispositivos SCSI puede ser un tanto confuso, especialmente si hay muchos dispositivos
conectados a la cadena SCSI. Hay varios factores que necesitan confirmarse al hacer una
instalación de SCSI. El primer factor que necesita verificarse es la variante SCSI. Hay muchos tipos
diferentes de interfaces SCSI que pueden usarse desde la más lenta, 5 MB/s, SCSI-1, a la mucho
más rápida, 160 MB/s, Ultra3 Wide SCSI. Esta variación en tipos de SCSI puede ocasionar
problemas en la configuración de SCSI. Es posible conectar dos dispositivos tipo SCSI diferentes,
no obstante no se recomienda. Esto puede degradar el rendimiento y conducir a otros problemas
haciendo que la configuración falle.
El segundo factor importante son las IDs SCSI. Cada dispositivo SCSI que se instala necesita que
se le asigne un número, o ID SCSI, Figura , que la computadora usa para identificar el
dispositivo. El número de ID que se permite tener a los dispositivos SCSI depende de qué estándar
SCSI se esté usando. Por ejemplo, antiguos estándares SCSI que usan un bus de 8 bits de
amplitud usan números de ID SCSI que van de 0 a 7. Los estándares SCSI más modernos usan
buses de 16 bits, que pueden usar un número de ID SCSI que va de 0 a 15. El adaptador de host
SCSI usa uno de estos números de ID para identificarse dejando el resto de los números de ID
para los dispositivos. En general, configurar los pines de los jumpers configura los números de ID
de los dispositivos SCSI internos. Los dispositivos externos tienen un interruptor o dial en el
dispositivo que se configura. Es importante verificar y confirmar que dos dispositivos no compartan
la misma configuración de jumper. Esto puede ocasionar que un dispositivo "enmascare" al otro
dispositivo, o hacer que ninguno funcione. Algunos dispositivos nuevos pueden tener configuradas
sus IDs usando el protocolo SCSI Configurado Automáticamente (SCAM). Esto permite que los
dispositivos SCSI adquieran sus IDs SCSI automáticamente.
383
El tercer factor que debe verificarse y confirmarse al instalar dispositivos SCSI es la terminación. Al
final de cada cadena SCSI, es necesario que exista un dispositivo de terminación para que las
señales no reboten continuamente. Hay diferentes tipos de terminación que se usan dependiendo
de qué tipo de variación SCSI se está usando. Algunos ejemplos de tipos de terminación son
pasiva, activa y diferencial de bajo voltaje (LVD). Algunos dispositivos SCSI pueden terminarse
usando una configuración de jumper. Verifique la documentación del fabricante para determinar
qué tipo de terminación se usa.
El cuarto factor que debe verificarse y confirmarse en una configuración SCSI es la calidad del
cable. Los dispositivos e instalaciones SCSI son más caros que otras opciones. La razón para ello
es que los dispositivos SCSI ofrecen más velocidad y calidad. Hay algunos dispositivos que
actualmente están siendo probados pero que aún tienen que tener gran impacto en el mercado.
Estos nuevos dispositivos desafiarán la superioridad de los dispositivos SCSI. No obstante, puesto
que aún no han llegado al mercado, los dispositivos SCSI aún se conocen como los más rápidos y
de más alta calidad disponibles. Por esta razón es imperativo que sólo se usen cables de calidad
SCSI al instalar dispositivos SCSI. Esto es particularmente cierto al encadenar varios dispositivos
SCSI. Un cable de calidad SCSI puede costar aproximadamente cincuenta dólares ($50) la pieza.
Esto puede ser caro, no obstante, no es inteligente gastar mucho dinero en una pieza de hardware
SCSI y descubrir que no funciona a causa de un cable de bajo precio. El último factor a verificar y
confirmar al hacer una instalación de un dispositivo SCSI es la longitud del cable. Nuevamente,
dependiendo de la variante SCSI que se esté usando, la longitud de cable máxima para la cadena
SCSI entera va desde 1,2 metros a 12 metros. Esta distancia incluye la longitud de cable entera,
incluyendo tanto cables internos como externos.
Terminación
En cualquier cadena SCSI es necesario que haya un terminador en cada extremo para evitar que la
señal rebote continuamente, lo cual se muestra en la Figura . Algunos dispositivos SCSI son
capaces de auto-terminación configurando el jumper o switch apropiado. Existen varios tipos de
terminación de los cuales debe enterarse un administrador de sistemas. Diferentes tipos de
dispositivos y estándares SCSI requieren diferentes tipos de terminación. Una terminación y
selección de tipo de terminación inapropiadas puede conducir a diversos errores en la transferencia
de datos. Colocar un adaptador de terminación en un dispositivo que no se encuentra al final de la
cadena SCSI también puede ocasionar problemas. Recuerde que el adaptador SCSI se considera
también un dispositivo SCSI, y por lo tanto debe terminarse cuando es el dispositivo extremo de la
cadena. La mayoría de los adaptadores SCSI tienen BIOS. El BIOS permite al administrador del
sistema terminar de ser necesario.
Cadenas Bifurcadas
Los adaptadores SCSI tienen en general 3 conectores. Hay dos conectores internos y un conector
externo. Las dos conexiones internas, Figura , son para conexiones SCSI internas amplias o
estrechas. Una cadena SCSI deberá ser unidimensional. Esto significa que la cadena SCSI deberá
correr en una línea continua con un dispositivo conectado junto al siguiente. El adaptador SCSI es
384
uno de estos dispositivos en el medio o al final de la cadena. Una cadena bifurcada es una cadena
SCSI que se desvía de esta regla iniciando otra cadena fuera del adaptador. Iniciar otra cadena no
debería hacerse y puede ocasionar un fallo en la configuración.
Otros Temas SCSI
Otros temas SCSI incluyen una apropiada selección de ID SCSI, una longitud de cable apropiada, y
calidad del cable. Éstos se trataron en la sección anterior. Diagnosticar y resolver problemas de un
dispositivo SCSI casi siempre puede llevar a problemas relacionados con la terminación y el cable.
Algunas buenas técnicas de detección y resolución de problemas para dispositivos SCSI incluyen
formas de simplificar la cadena SCSI. Por ejemplo, cuando una configuración SCSI incluye dos
unidades de disco rígido, una unidad de CD-ROM, y una unidad de cinta. Sólo una de las unidades
de disco rígido necesita conectarse para que el sistema arranque. Primero intente sacar todos los
dispositivos excepto el disco que arrancará el sistema operativo. Vea si el sistema arranca. Si lo
hace, entonces lo más probable es que el problema tenga que ver con la longitud del cable o con
uno de los dispositivos.
También es importante saber que Linux no tiene soporte para adaptadores SCSI como sí lo tiene
para dispositivos y controladores EIDE. Por lo tanto, los controladores apropiados necesitan
instalarse para el adaptador SCSI que se está usando. Algunas distribuciones se envían con
controladores para adaptadores SCSI, no obstante es mejor confirmar que pueda hallarse soporte
para el adaptador antes de la instalación.
A diferencia de las unidades EIDE/ATA, los adaptadores SCSI se ejecutarán con un desempeño
óptimo constantemente, por lo que no es necesario usar una utilidad como hdparm para ajustar el
desempeño de la unidad SCSI. La utilidad hdparm puede usarse para verificar la presencia y el
desempeño de una unidad de disco rígido SCSI.
RAID (Redundant Array of Inexpensive Disks)
Al tratar los dispositivos SCSI es importante tratar cómo instalar y configurar RAID en un sistema
Linux. Es muy común que los servidores usen SCSI a causa de su velocidad y confiabilidad en
conjunción con una configuración de RAID para proporcionar tolerancia a fallos. Tolerancia a Fallos
es la capacidad de un servidor para recuperarse de un fallo inesperado de hardware o software.
Hay muchos niveles de tolerancia a fallos, siendo el más bajo la capacidad para continuar la
operación en caso de una falla en la alimentación. Muchos sistemas de computadora tolerantes a
fallos usan RAID como medio de configurar la tolerancia a fallos en sus servidores.
Durante la instalación de Linux sólo puede configurarse RAID niveles 0, 1 y 5, mientras que
después de la instalación se pueden configurar otros niveles RAID también. RAID niveles 0, 1 y 5
son los más ampliamente utilizados. Para RAID 0 y 1, se necesitan al menos dos unidades de
disco, mientras que para RAID 5 se necesitan al menos tres unidades de disco. La Figura
proporciona una lista de los diversos tipos de configuraciones de RAID que pueden hacerse.
385
Hay dos tipos de RAID que pueden configurarse en un sistema Linux: RAID de hardware y RAID de
software. La configuración RAID de Hardware administra el subsistema RAID independientemente
del host y presenta al host sólo un único disco por conjunto RAID. Un ejemplo de dispositivo de
RAID de Hardware sería uno que se conecte a un controlador SCSI y presente el conjunto RAID
como unidad SCSI única. Todo el subsistema se conecta al host mediante un controlador SCSI
normal y aparece ante el host como un único disco.
El RAID de Software implementa los diversos niveles de RAID en el kernel usando el código del
OS. Ofrece una alternativa más barata, ya que placa controladoras de discos de alto costo o bahías
de intercambio en caliente no se requieren. El RAID de Software también funciona con los discos
IDE más baratos así como con discos SCSI. Con las CPUs rápidas de hoy, el desempeño de un
RAID de Software puede competir con el RAID de Hardware. El controlador MD (multi-disco) del
kernel Linux es un ejemplo de una solución RAID completamente independiente del hardware. El
desempeño de un conjunto basado en software depende del desempeño y la carga de la CPU del
servidor.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.5
Configuraciones del BIOS
El Sistema de Entrada/Salida Básico (BIOS) de una computadora es un componente muy
importante. El BIOS juega un gran papel en la configuración e instalación de hardware. El BIOS es
software que se ejecuta al nivel más bajo de la computadora. Cuando el sistema está arrancando la
CPU ejecuta el código del BIOS, que permite al BIOS configurar los aspectos básicos del sistema
antes de que se cargue el sistema operativo. El BIOS también proporciona herramientas, que
ayudan a cargar el kernel de Linux en la memoria. El BIOS puede ser diferente en sistemas
diferentes. En general se basa en el motherboard en el que está instalado. Dos sistemas que
tengan el mismo motherboard pueden correr el mismo software BIOS.
386
Otro aspecto del BIOS que diferirá de un sistema a otro es la utilidad de configuración del
Semiconductor de Óxido Metálico Complementario (CMOS), Figura . El CMOS es el componente
de memoria del BIOS donde configuraciones y opciones de bajo nivel para cierto hardware se
almacenan así pueden recuperarse cada vez que arranca el sistema. Por ejemplo, hay opciones en
el CMOS para controlar de qué dispositivo arranca el sistema. También hay opciones para cambiar
opciones para la CPU, unidades de disco rígido y otros medios de almacenamiento, y placas de
video.
Es importante verificar y confirmar que las configuraciones del BIOS estén configuradas
correctamente usando la utilidad de configuración CMOS. Si las configuraciones de hardware del
BIOS no están ajustadas apropiadamente, no funcionará. En algunos casos una configuración
equivocada del BIOS puede hacer que el sistema ni siquiera arranque. La mayoría de los sistemas
informáticos mostrarán un prompt cuando el sistema está iniciando que les indica qué tecla
presionar para entrar a la utilidad de configuración CMOS. También es importante verificar la
configuración del BIOS de otro hardware que puede tener sus propias configuraciones separadas
en el BIOS. Por ejemplo, la mayoría de los adaptadores SCSI tienen sus propias configuraciones
de BIOS que pueden usarse para configurar ajustes específicamente relacionados con el adaptador
y los dispositivos SCSI.
Hay muchas configuraciones en el BIOS que se usan muy a menudo y son particularmente
importantes. La primera de ellas es la configuración de disco. Cada vez que un nuevo disco rígido
se instala, elimina o reformatea, ajuste las configuraciones de disco en el BIOS para recordar al
sistema unas pocas cosas importantes acerca de la unidad. El sistema necesitará conocer la
capacidad del disco. Esto puede ajustarse manualmente o usando una función de auto-detección
que tienen la mayoría de los discos. La otra configuración común que necesita hacerse es cómo el
BIOS interpreta las direcciones de cilindro/cabezal/sector del disco. Recuerde al usar discos SCSI
que estas configuraciones de disco tendrán que ajustarse mediante el BIOS de la placa adaptadora
SCSI.
Otra configuración importante del BIOS es la de los puertos on-board. Hay diversos puertos en un
motherboard. Muchos de ellos ya han sido tratados. Algunos ejemplos son serial, paralelo, USB y
EIDE. Estos puertos pueden configurarse en el BIOS cambiando la IRQ que usan e incluso
habilitándolos o inhabilitándolos. Inhabilitar un puerto en las configuraciones del BIOS puede liberar
IRQs cuando se experimentan conflictos de recursos. Las configuraciones PCI también pueden
ajustarse en el BIOS. Estas configuraciones son útiles de ajustar si hay cualquier conflicto de IRQ a
causa de cómo el sistema asigna IRQs a placas PCI.
Las configuraciones del BIOS permiten establecer diferentes contraseñas. Esto evita que el sistema
arranque sin introducir la contraseña correcta. Esto es útil en un entorno en el cual la seguridad es
un factor. También es posible establecer una contraseña que evite que alguien entre a la pantalla
del CMOS y cambie cualquiera de las configuraciones del BIOS. Hay maneras de pasar por alto
esta contraseña que evita que el sistema arranque. No obstante, la contraseña puede detener a la
mayoría de los intrusos no deseados.
387
También pueden configurarse diversos ajustes de memoria. Por ejemplo, el BIOS puede
configurarse de tal modo que partes de la información sobre el sistema o la información
almacenada en otros dispositivos pueda copiarse a la RAM. Este proceso se denomina shadowing.
Este proceso acelera el acceso del sistema a DOS porque puede accederse directamente desde la
RAM. Esto es útil en sistemas DOS/Windows, que usan el BIOS para entrada/salida. No obstante,
este proceso no tiene mucho propósito en un sistema Linux porque Linux no se basa muy a
menudo en DOS. Por lo tanto, en un sistema Linux esta función puede desactivarse, lo cual deja
más memoria para procesos del sistema. Hay diversas otras configuraciones de memoria en una
computadora. Experimente con las otras configuraciones de memoria para encontrar la apropiada.
La última función importante que puede configurarse en el BIOS es la anteriormente mencionada,
los dispositivos de arranque. El sistema puede arrancarse desde muchos dispositivos diferentes.
Usando una configuración del BIOS, el sistema puede configurarse para que arranque desde la
unidad de disco rígido, un diskette booteable, un CD-ROM booteable, o un disco zip booteable. Las
configuraciones de los dispositivos de arranque pueden configurarse para arrancar desde un
dispositivo específico o un conjunto de dispositivos en un orden especificado. Cuando el sistema
arranca, verifica cada medio por turno. Si el dispositivo no está presente, o no es booteable, pasa a
probar el siguiente. Experimente para determinar cuál es la mejor configuración para el BIOS. Esto
variará dependiendo de qué hardware está instalado y qué opciones de CMOS tendrá el BIOS.
Algunos BIOS tienen más configuraciones de CMOS que otros. No obstante, se recomienda que
experimente con cambios en un sistema que no esté actualmente en uso para que estos cambios
puedan probarse apropiadamente.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.6
Diagnóstico y resolución de problemas de los dispositivos
La mayoría de los sistemas Linux usan unidades de disco duro EIDE y CD-ROMs que se conectan
al puerto de Electrónica de Dispositivos Integrados Mejorada (EIDE). Adjunto de Tecnología
Avanzada (ATA) e Interfaz de Paquetes ATA (ATAPI) son otros nombres con los cuales se conoce a
los dispositivos EIDE. Es importante poder diagnosticar y resolver problemas apropiadamente en
estos dispositivos. Los problemas que ocurren con estos dispositivos pueden evitar que Linux
arranque e incluso destruir datos valiosos almacenados en las unidades de disco rígido EIDE/ATA.
Hay varios tipos comunes de problemas que pueden ocurrir con los dispositivos EIDE/ATA. Un
problema ocurre cuando un sector se daña. Linux puede dejar de arrancar o hacer que se dañen
datos. En tales casos, estos problemas pueden hacer que el cargador Linux (LILO) falle y no pueda
arrancar Linux. Otro problema común relacionado al sistema Linux es cuando los controladores
EIDE/ATA tienen bugs en ellos. Muchos de los kernels Linux, y el kernel más moderno en particular,
se envían con arreglos para muchos de estos bugs comunes. Mientras el sistema contenga
controladores comunes no deberían ocurrir problemas. Si se instala un nuevo controlador para el
cual el kernel no tiene arreglos, pueden ocurrir problemas. Algunos de estos problemas incluyen la
obtención de errores del sistema de archivos inusuales. Por ejemplo, archivos recientemente
creados pueden corromperse y el sistema de archivos existente puede tener errores en él. En otros
casos estos bugs pueden hacer que el sistema se caiga. Esto se da sólo en casos raros y extremos.
Soluciones fáciles a estos problemas incluyen recompilar el kernel con el arreglo apropiado para el
controlador que se está usando, o actualizar completamente el kernel. Otra sugerencia es usar un
controlador diferente con un kernel que ya contenga los arreglos.
En algunos casos los dispositivos EIDE/ATA pueden producir velocidades de transferencia de datos
muy lentas en sistemas Linux. Una razón posible para el lento desempeño es el uso de los
controladores equivocados. El kernel Linux contiene controladores que soportan prácticamente
todos los controladores EIDE/ATA del mercado. No obstante, para obtener resultados óptimos, se
necesitan controladores especializados para los dispositivos EIDE/ATA o el controlador que se está
usando. En un sistema Linux, la utilidad hdparm puede usarse para probar las velocidades del disco
así como un conjunto de varias opciones. Esto puede mejorar el rendimiento. Lea la página man de
hdparm para encontrar más información acerca del conjunto completo de opciones que pueden
usarse con esta utilidad. Algunas de las opciones más comunes que se usan con esta utilidad se
describen a continuación. La Figura muestra todas las opciones disponibles para la utilidad
hdparm y la Figura muestra la descripción de esas opciones.
388
Deberá tenerse extremo cuidado al usar estas opciones de la utilidad hdparm. Si se usan
incorrectamente podría dañarse seriamente el sistema de archivos del sistema. Además, algunas de
estas opciones pueden usarse en sistemas sin problemas, y cuando se usa la misma opción en otro
sistema ocurren serios problemas. En la mayoría de los casos no habrá necesidad de usar la
utilidad hdparm porque la mayoría de los sistemas son capaces de configurarse automáticamente
para un desempeño óptimo.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.7 Dispositivos periféricos
Los Dispositivos Periféricos son dispositivos que se conectan a la computadora mediante un puerto
externo o interno y son controlados por la computadora. Ejemplos de dispositivos periféricos
externos son mouse, teclados, monitores, impresoras y escáners. Los dispositivos periféricos se
consideran en general sólo como dispositivos externos. No obstante, algunos dispositivos internos
pueden clasificarse como dispositivos periféricos. Ejemplos de dispositivos periféricos internos son
unidades de disco rígido, CD-ROMs, y dispositivos de backup de cinta. Estos dispositivos internos
se consideran dispositivos periféricos porque también podrían conectarse externamente. Hay un
amplio rango de dispositivos periféricos y por lo tanto un amplio rango de problemas que pueden
existir en ellos. La mayoría de los problemas de los periféricos pueden dividirse en tres categorías,
problemas con el dispositivo, problemas con los cables que conectan el dispositivo a la
computadora, o problemas con el puerto o la interfaz en la computadora.
Problemas de los Dispositivos Periféricos
Al experimentar problemas con el dispositivo periférico en un sistema Linux, lo primero que deberá
verificarse es el dispositivo. Cuando un dispositivo no está funcionando en un sistema Linux el
problema será más a menudo un problema de controlador. Los problemas con el controlador son
un problema a causa de la falta de soporte a controladores disponible para sistemas Linux.
Asegúrese de que el dispositivo periférico que se está instalando tenga controladores que
funcionen en Linux. No todos los dispositivos tendrán soporte de controladores disponible para
Linux. Éste es un hecho desafortunado al usar Linux. Las razones para la falta de soporte de
controladores se han tratado en secciones anteriores. Un enfoque a seguir al diagnosticar y
resolver problemas de dispositivos periféricos en sistemas Linux es verificar los dispositivos que en
general tienen la mayoría de los problemas. La mayor parte de los dispositivos comunes, como
monitores, teclados, mouse, módems externos, dispositivos EIDE y SCSI usualmente funcionan sin
problemas. Las impresoras, escáners y cámaras digitales son algunos de los dispositivos que en
general presentan la mayor parte de los problemas.
Hay otro enfoque útil a tomar al diagnosticar y resolver problemas de dispositivos periféricos. Lleve
el dispositivo a un sistema que esté ejecutando el sistema operativo Windows y vea si el dispositivo
se instala apropiadamente. Casi todos los dispositivos periféricos disponibles en el mercado son
compatibles y soportados por Windows. Por lo tanto, si el dispositivo funciona en el sistema
389
Windows y no en el sistema Linux lo más probable es que el problema tenga que ver con un
controlador, no con el dispositivo en sí. Este enfoque también ayuda a diagnosticar otros
problemas. Si el dispositivo no funciona en el sistema Windows entonces el problema podría ser un
cable defectuoso o una interfaz defectuosa en el dispositivo.
Problemas de los Cables Periféricos
Los problemas asociados con los cables son usualmente los más fáciles de probar. Simplemente
reemplace el cable por uno nuevo. El proceso puede ser un poco más difícil con cables SCSI
porque son mucho más caros. No siempre es posible comprar un nuevo cable SCSI sólo con
propósitos de prueba. Algunos dispositivos tienen cables incorporados, como los teclados y mouse.
No obstante, estos dispositivos son de bajo costo así que es fácil reemplazar el dispositivo entero.
A veces los problemas de los cables no son el resultado de cables defectuosos sino de una
instalación inapropiada. La mayor parte de los cables sólo pueden instalarse en una única
dirección. No obstante, como se trató en la sección anterior, algunos cables pueden insertarse
hacia atrás. Los cables de las disqueteras son inusuales porque tienen una torcedura. La torcedura
juega un rol importante en cómo se instala la disquetera. Es importante que la primera disquetera o
la única, dependiendo del sistema, se instale después de la torcedura del cable. Si se instala antes
de la torcedura, los identificadores de unidad se confundirán y causarán problemas.
Problemas de la Interfaz del Periférico
Los puertos o interfaces que los dispositivos periféricos, Figura , usan para conectarse a la
computadora se han tratado previamente. Diagnosticar y resolver problemas de dispositivos EIDE y
SCSI se trató en gran detalle. No obstante, hay otras varias interfaces periféricas que necesitan
tratarse para poder diagnosticar y detectar problemas de los dispositivos periféricos en forma
completa. Otras interfaces de dispositivos periféricos se enumeran a continuación.
Disquetera
La mayoría de las computadoras incluyen controladores para soportar hasta dos disqueteras.
Raramente habrá cualquier problema de configuración o compatibilidad con disqueteras en un
sistema Linux porque el kernel casi siempre tendrá controladores para soportar cualquier
disquetera que se instale. Si la disquetera no está siendo detectada, verifique el BIOS. El puerto
para la disquetera debe activarse en el BIOS para que el controlador de la disquetera funcione. Si
el puerto está activado en el BIOS y aún así la disquetera no funciona, entonces el problema es
más probablemente un controlador o disquetera defectuosos. Es fácil reemplazar una disquetera.
No obstante, puede ser difícil reemplazar un controlador de disquetera en motherboards porque
son algo permanente en la placa. Si el controlador [controller, no driver] se vuelve defectuoso, la
única solución es reemplazar el motherboard, o buscar una placa de expansión que tenga un
controlador de disquetera en ella. La Figura demuestra el método correcto para insertar un
diskette en la disquetera.
390
Monitor
La interfaz para el monitor reside en la placa de video del sistema. Como se trató previamente,
cualquier problema de configuración con el monitor usualmente tiene que ver con el X server que
se está usando. Los problemas de hardware son usualmente fáciles de detectar porque el monitor
no se enciende o la imagen en la pantalla está distorsionada. Desafortunadamente, los monitores
son piezas de hardware sensibles que pueden dañarse fácilmente si se dejan caer, o se encienden
cerca de un imán o fuente luminosa. Las imágenes se pueden quemar en la pantalla si el monitor
se deja sin un salvapantallas activado. Una forma fácil de probar un fallo en el monitor es
reemplazarlo por uno que funcione para ver si el problema desaparece.
Teclado
Los teclados son piezas de hardware bastante estandarizadas. Al igual que ocurre con las
disqueteras, no debería haber problemas de configuración o compatibilidad con los teclados.
Cualquier problema con la interfaz del teclado estará estrictamente relacionada con el hardware. La
interfaz en sí podría estar dañada o el teclado podría ser defectuoso.
Mouse PS/2
Un mouse PS/2 es un mouse que se conecta a la computadora mediante la interfaz PS/2. La
interfaz PS/2 usualmente está ubicada junto a la interfaz del teclado. Los mouse USB son los que
en general se venden hoy. No obstante, hay muchos sistemas que aún usan mouse PS/2 y por lo
tanto es importante que se traten. Los controladores de mouse PS/2 en Linux son prácticamente
estándar. Los controladores para el mouse, no obstante, necesitan incluirse en el kernel o
compilarse como módulos para funcionar. Si la interfaz PS/2 real se daña, la única opción es usar
un mouse USB o serial.
Paralelos
Los puertos paralelos se usan comúnmente para impresoras, pero también se usan para otros
dispositivos como escáners, cámaras, y otras unidades de medios externos. Existen dos tipos de
controladores que un sistema Linux requiere para habilitar un dispositivo de puerto paralelo. El
primer controlador es para hardware de puerto paralelo de bajo nivel y el otro controlador es para
hardware que está conectado a la interfaz paralela. Mientras los controladores estén de alguna
manera incluidos en el kernel no debería haber problemas de configuración con la interfaz paralela.
Si la interfaz en sí se volviera defectuosa, instale una placa de expansión ISA o PCI que tenga una
interfaz paralela. Otra opción sería usar otro puerto. Algunas impresoras y escáners más modernos
pueden conectarse mediante puertos USB así como puertos paralelos. Un elemento de
configuración a verificar con interfaces paralelas es asegurar que el puerto esté encendido en el
BIOS. Si el puerto no está activado en el BIOS, el dispositivo no funcionará.
Serial RS-232
Los dispositivos que usan puertos serial se están volviendo obsoletos porque son
considerablemente más lentos que los puertos paralelos o USB. El soporte para controladores para
puertos serial RS-232 es prácticamente estándar en sistemas Linux y por lo tanto no debería haber
ningún problema de configuración con este tipo de interfaz en particular. Si la interfaz no funciona,
391
verifique las configuraciones del BIOS.
USB
La interfaz Bus Serial Universal (USB) se está volviendo la opción popular para conectar
dispositivos externos a una computadora. La interfaz USB es popular porque proporciona una
velocidad mayor y más flexibilidad que los puertos serial RS-232 o paralelos. Muchos de los
problemas que los sistemas Linux tienen con las interfaces USB dependen de qué kernel se está
usando. Por ejemplo, los sistemas Linux que están usando el kernel 2.2.17 o anterior tendrán un
soporte muy limitado para interfaces USB. Para tener el mejor soporte para USB para un sistema
Linux actualice al kernel 2.2.18 ó 2.4.X o actualice a una distribución de Linux que incluya esta
versión del kernel. Cualquier distribución de Linux que se vendió después del año 2001 incluirá
soporte agregado para dispositivos USB, no obstante, aún habrá algunos dispositivos no
soportados. Haga las investigaciones apropiadas antes de adquirir cualquier dispositivo USB.
También es importante verificar la configuración del BIOS y asegurarse de que las interfaces USB
estén habilitadas.
IEEE-1394
IEEE-1394 es el último estándar para interfaces externas de alta velocidad, conocido como
"firewire", Figura . Esta interfaz es mucho más rápida que USB. En algunos casos firewire se
considera sucesora de las interfaces SCSI. No obstante, por ser una tecnología tan nueva, muchos
de estos dispositivos aún no se usan ampliamente. Los dispositivos firewire continuarán creciendo
y pueden eventualmente convertirse en estándar. El soporte para el estándar IEEE-1394 aún es
muy limitado en sistemas Linux, pero se está trabajando para expandir el soporte de Linux para
esta tecnología en el futuro. Algunos de los últimos motherboards disponibles en el mercado
tendrán una interfaz firewire incorporada, pero muchos sistemas no. Puede adquirirse e instalarse
una placa de expansión con una interfaz firewire.
Red
Los puertos de red pueden incluirse en placas de interfaz de red (NIC) o a veces el puerto de red
se incorporará al motherboard. Linux proporciona un amplio rango de soporte para la mayoría de
las placas de red, pero no para todas ellas. Si la placa de red es una placa nueva, Linux puede no
tener los controladores para soportarla.
La mayor parte de estas interfaces enumeradas son estándar y no deberían presentar mayores
problemas en los sistemas Linux. No obstante, las interfaces y dispositivos de red, USB y firewire
que no son estándar en sistemas Linux podrían causar algunos problemas.
12.3
Verificación y Confirmación de la Configuración del Hardware
12.3.8
Hardware del sistema central
El hardware del sistema central se refiere a la RAM, la CPU y el motherboard, el hardware más
crítico de un sistema. Si cualquiera de estos dispositivos no está funcionando apropiadamente o
está dañado entonces el sistema entero puede no funcionar. Éste es casi siempre el caso de la
CPU y la RAM. El motherboard puede tener secciones que fallan, lo que ocasionaría que sólo cierto
dispositivo o interfaz no funcionara. Por ejemplo, si el puerto paralelo estuviera dañado entonces es
392
probable que el sistema funcionara excepto por la interfaz paralela en particular y el dispositivo
conectado a la interfaz.
Si hay un problema con cualquier parte del hardware del sistema central, el sistema lo indicará al
usuario cuando el sistema está iniciando. Cada vez que se inicie el sistema, éste practica una AutoPrueba de Encendido (POST). Durante la POST el sistema mira para ver si dispositivos tales como
la RAM, el teclado y la placa de video están presentes y funcionando apropiadamente. Cuando el
sistema inicia, hace bip una o dos veces. Esto es lo que el sistema usa para mostrar si el sistema
pasa la POST o si cualquiera de los dispositivos falla en la POST. Un "código de bips" diferente se
escuchará para diferentes dispositivos que fallan. Estos "códigos de bips" no están estandarizados,
por lo tanto verifique la documentación del motherboard de cada sistema. Si el sistema falla en la
POST, primero, verifique para asegurarse que todo el hardware está apropiadamente instalado. El
segundo paso sería reconectar todos los dispositivos o al menos los dispositivos que se sospecha
que no están funcionando. En la mayoría de los sistemas la POST va acompañada por indicadores
en pantalla, que pueden monitorearse, para ver si cualquiera de las partes del hardware del
sistema central no está funcionando apropiadamente. Por ejemplo, el indicador de progreso de la
memoria mostrará cuánta RAM está reconociendo el sistema. Si el indicador se detiene a mitad de
camino, es muy probable que el sistema haya encontrado una RAM defectuosa.
En un sistema Linux, algunos problemas asociados a hardware del sistema central no se muestran
hasta después del arranque del sistema. Un mensaje en la pantalla indicando el problema
aparecerá cuando un sistema Linux detecta un problema en el hardware del sistema central. Estos
se conocen como "oops" del kernel, que se mencionaron en capítulos anteriores. El resumen que
se muestra incluirá la palabra "oops" que muestra el problema de hardware. El "oops" en general
muestra problemas de hardware como una RAM defectuosa, una CPU sobrecalentada o una
unidad de disco rígido defectuosa.
Otro útil indicador para diagnosticar y resolver problemas apropiadamente en el hardware del
sistema central es identificar cuándo ocurre el error. ¿Ocurre el problema justo cuando el sistema
inicia o aparece después de que el sistema ha estado funcionando durante un tiempo? Si el
hardware está fallando después de que el sistema ha estado corriendo durante un tiempo puede
ser sólo que el sistema o el hardware se está calentando demasiado. Es importante verificar los
reductores de calor del hardware y asegurarse de que el sistema tenga una ventilación apropiada
para que no se sobrecaliente. Éste es un problema que la mayoría de la gente pasa por alto o
piensan que no es de mayores consecuencias. No obstante, más hardware falla como resultado de
un sobrecalentamiento que por otras causas.
12.4
Laptop y Dispositivos Móviles
12.4.1
Administración de la alimentación
Instalar Linux en laptops es otra área que requiere especial atención. Linux no fue inicialmente
diseñado para correrse en un sistema en el cual cosas tales como administración de la energía o
placas de PC intercambiables fueran necesarias. La parte más frustrante de usar Linux en una
laptop es la instalación. Puede ser difícil hacer que la configuración XFree86 funcione
apropiadamente con las pantallas de cristal líquido (LCDs) que usan las laptops.
Las laptops funcionan esencialmente de la misma manera que las computadoras de escritorio
regulares e incluyen todo el mismo hardware que las computadoras de escritorio. El software
también funciona de manera muy parecida. Existen algunas limitaciones que se presentan al
instalar Linux en una computadora laptop. Estas limitaciones son las siguientes.
393
Módem
La mayoría de las laptops que están disponibles hoy tienen módems incorporados. Aunque tener
un módem incorporado es conveniente, esto representa problemas porque muy a menudo estos
módems incorporados son usualmente módems de software para los cuales los controladores son
raros en sistemas Linux. Para sortear este problema instale los controladores apropiados después
de que Linux haya sido instalado, si hay controladores disponibles. Otra opción es adquirir un
módem externo USB o serial. No obstante, asegúrese de que el módem adquirido sea soportado
en Linux.
Networking
Como en el caso de los módems, los dispositivos de red y Ethernet son ahora dispositivos
integrados en las laptops. Averigüe qué chipset usa el dispositivo Ethernet incorporado y asegúrese
de que sea soportado por Linux. Si no es soportado por Linux es posible adquirir un adaptador
Ethernet externo.
Pantalla
El problema más grande al instalar Linux en una laptop es hacer que la GUI se muestre
apropiadamente. Las pantallas de LCD que se usan en las laptops aceptan sólo un estrecho rango
de tasas de refresco horizontal y vertical. Esto hace difícil o incluso imposible que el instalador GUI
se ejecute. Cuando sea el momento de configurar el X server, puede ser difícil encontrar una
configuración que funcione en la laptop. Incluso si la GUI funciona, puede no funcionar a la
resolución óptima del sistema. Es importante saber qué chipset de gráficos de las laptops no puede
quitarse o reemplazarse, por lo cual es vitalmente importante que el chipset de las laptops deba
tener soporte para que la GUI corra en él. Si es necesario instalar Linux en una laptop, visite la
página web Linux en Laptops usando el vínculo enumerado más abajo. El sitio contiene información
útil acerca de procedimientos de configuración así como otra información útil que puede ayudar al
instalar Linux en una laptop.
Administración de la Energía
Las computadoras laptop se quedan sin energía en la batería cuando no están enchufadas.
Comprender la administración de la energía de la laptop y cómo se relaciona cuando está instalado
Linux es importante. Las laptops sólo pueden funcionar durante un periodo temporal hasta que la
energía de la batería se agota. Por esta razón las laptops están equipadas con muchas
herramientas de administración de energía extra. Las herramientas de administración de energía
ayudan a reducir el uso de la batería y a extender la vida de la batería. Las dos herramientas
principales de administración de la energía que se incluyen en el kernel Linux son Administración
de Energía Avanzada (APM) e Interfaz de Energía y Configuración Avanzada (ACPI). Ambas
herramienta requieren soporte del BIOS del sistema para que funcionen. Recuerde que aunque
estas herramientas tienen las laptops en vista, también se usan en las computadoras de escritorio.
Linux usa estas herramientas para quitar la alimentación de un sistema cuando se apaga.
El primer estándar real para la administración de energía fue APM. ACPI es un componente de
administración de energía eventualmente elaborado para reemplazar a APM. Una gran diferencia
es que ACPI requiere que cada dispositivo del sistema sea capaz de manejar cambios en el estado
de la energía correctamente. Al inicio, el BIOS presenta la DSDT (Tabla de Descripción del Sistema
Diferenciada) al sistema operativo. Esta tabla le permite saber al OS qué capacidades tiene cada
dispositivo, y basándose en la información, es capaz de llevar a cabo las acciones requeridas antes
de cambiar el estado del sistema. Dos usos comunes de ACPI en laptops es el estado de la batería
y cuando se presiona el botón de encendido en una PC. Cuando se presiona el botón de encendido
se envía una señal al motherboard en lugar de a la fuente de alimentación real, al usar ACPI.
Mediante ACPI, un daemon acpid es alertado y puede llevar a cabo tareas personalizadas,
usualmente apagar el sistema.
El principal propósito de estas herramientas de administración de energía es indicar al sistema
cuándo entrar a estados de "conservación de la energía". Para que esto funcione, el paquete apmd
necesita estar instalado y funcionando. Este paquete podría venir incluido en los discos de
instalación de la distribución o podría instalarse automáticamente. El programa apmd se ejecuta
394
como daemon y deberá configurarse para iniciarse automáticamente cuando se inicia el sistema.
Para iniciar un daemon automáticamente cuando el sistema inicia edite el archivo /etc/rc.d/rc.local
e introduzca una línea de texto que haga referencia al programa en el directorio /etc/rc.d/init.d/. La
Figura muestra el archivo de configuración /etc/rc.d/rc.local/. Por ejemplo, ubique la siguiente
línea de texto en el archivo de configuración /etc/rc.d/rc.local/.
/etc/rc.d/init.d/apmd
Puede no ser necesario agregar esta línea de texto al archivo de configuración /etc/rc.d/rc.local/
porque puede ya estar ahí. En algunos casos es colocada ahí cuando se instala el sistema
operativo, o cuando se instala el daemon. El programa apmd monitoreará el sistema para ver
cuándo la energía de la batería está baja. Cuando sea necesario, los programas y funciones del
sistema se apagarán y sólo se mantendrá la RAM del sistema. El programa apmd también
suspende el disco rígido del sistema si no se usa durante un periodo especificado. El programa
hdparm puede controlar la administración de energía de la unidad de disco rígido más
directamente, como se aprendió en secciones anteriores.
También es posible controlar manualmente la herramienta APM tipeando el comando apm en el
shell. Tipear este comando mostrará información básica sobre administración de la energía, como
cuánta energía queda en la batería. El parámetro -s puede usarse con este comando que hará que
el sistema pase a modo suspendido. El parámetro -S colocará el sistema en modo standby. Las
diferencias entre estos dos modos son sutiles. El modo suspendido cerrará programas y apagará
dispositivos excepto la CPU y la memoria, que sólo corren en niveles mínimos. El modo standby
deja los dispositivos encendidos para que el sistema pueda recuperar la energía más rápidamente
pero lleva más energía de la batería que el modo suspendido. Dependiendo de qué tipo de batería
tenga la laptop, el sistema puede permanecer en modo suspendido por un día o más sin necesitar
recarga, pero sólo puede permanecer en modo standby varias horas. Verifique el manual o
documentación de la laptop para ver si tiene una secuencia de teclas que fuerce al sistema a entrar
en modo suspendido o standby. Hacer que ACPI se ejecute en Linux a veces puede ser
complicado. Esto se debe a que los fabricantes de laptops a menudo no siguen ningún tipo de
estándar al codificar ciertos BIOS y componentes relacionados con ACPI. En lugar de desarrollar y
seguir un estándar, se basan en controladores Windows propietarios para funcionalidad.
Desafortunadamente, en muchos casos, esto significa que ACPI no siempre funciona para usuarios
de Linux.
Cuando ACPI se configura y se ejecuta correctamente, hay muchas ventajas en su uso. Puede
monitorear componentes relacionados con la alimentación, como el adaptador AC y la batería. Una
de sus funciones avanzadas involucra las capacidades de re-clocking del procesador. Se puede
configurar ACPI para que baje la frecuencia de su CPU cuando la laptop está inactiva. También
puede controlar los ventiladores del sistema. Otra función más amplia es monitorear ciertos eventos
que tienen lugar en su laptop. Cerrar la tapa o presionar el botón de energía pueden configurarse
395
para enviar a la laptop a un estado "dormido" o suspendido. El primer paso para configurar Linux
con soporte ACPI es descargar e instalar un Kernel que ya tenga los módulos ACPI integrados. Se
pueden buscar los últimos kernels Linux en el vínculo al sitio web de más abajo.
12.4
Laptop y Dispositivos Móviles
12.4.2
Dispositivos de placas PC
Las laptops no tienen la capacidad para agregar y quitar dispositivos como los sistemas de
escritorio regular lo pueden hacer con placas ISA o PCI. Para sortear este problema, los fabricantes
desarrollaron un estándar para placas de expansión que pueden ser fácilmente insertadas y
quitadas de la laptop. Las placas se nombraron placas PCMCIA, Figura , por el grupo industrial
que las desarrolló, Asociación Internacional de Placas de Memoria de Computadoras (PCMCIA).
Desde entonces, el nombre a menudo se abrevia a placas PC, para ayudar a reducir el uso del
acrónimo PCMCIA. Algunos sistemas Linux y otros fabricantes aún usan el acrónimo PCMCIA.
Hay varios tipos diferentes de placas PC que pueden usarse en las laptops. La diferencia entre
Placas PC es su tamaño y uso. Los tres tipos de Placas PC son Tipo I, Tipo II y Tipo III. Las placas
Tipo I son las más delgadas y las Tipo III son las más gruesas. Las placas Tipo I son las más
usadas en aplicaciones tales como expansión de memoria. Las placas TIpo II son el tipo más
común de placas PC y se usan con placas Ethernet o módems. Las placas Tipo III son el tipo más
raro de placas PC y se usan con unidades de disco rígido u otros dispositivos que tienen
componentes internos móviles. Para averiguar más acerca de estas placas visite el sitio web de las
placas PC, en el vínculo más abajo. Como cualquier otro hardware que se instala en un sistema
Linux, es necesario instalar los controladores apropiados para el hardware. Algunos kernels no
vienen con el paquete de controladores de Placa PC instalados, así que primero consiga el paquete
de controladores e instálelo. El paquete de controladores de placas PC puede descargarse en el
vínculo web de más abajo. Afortunadamente, la mayoría de las distribuciones Linux vienen con
estos paquetes incluidos por lo tanto no debería ser necesario descargarlos. Si se necesita soporte
para un nuevo dispositivo, o si se toma la decisión de actualizar el kernel recompilándolo
manualmente, entonces descargue este paquete e instálelo.
El principal problema de usar Placas PC en un sistema Linux es que estas placas PC están
diseñadas para insertarse o quitarse a voluntad. Esto fuerza al controlador a ser montado y
desmontado cada vez que la placa se inserta y se quita de la laptop. Los controladores y módulos
Linux no funcionan así. No pueden montarse y desmontarse cada vez que se insertan o quitan
placas PC de la laptop. No obstante, el paquete de controladores de la placa PC incluye una
función llamada Servicios de Placa, que ayuda a montar y desmontar sin problemas controladores
del kernel de manera tal que sea seguro para el sistema y evita que se caiga. Por ejemplo, los
Servicios de Placa ayudarán a suavizar el proceso de iniciar y detener automáticamente los
servicios de Red cada vez que la placa Ethernet se inserta o quita. El directorio /etc/pcmcia,
contiene archivos de configuración que usa la función Servicios de Placa. Estos archivos de
configuración permiten a una variedad de placas PCMCIA ser configuradas para la laptop. Estos
archivos de configuración son realmente scripts que se ejecutan y le indican al sistema que cargue
determinados controladores para diferentes tipos de servicios como red o ide, cuando la placa PC
se inserta en la laptop. Estos scripts deberán funcionar sin problemas, y no debería haber
396
necesidad de editarlos para que funcionen.
Resumen
Configurar, instalar y mantener hardware en un sistema Linux requiere un amplio rango de
habilidades y conocimiento. La mayor parte de estas configuraciones son manipuladas de
manera diferente en Linux que en cualquier otro sistema operativo. Por lo tanto, un enfoque
completamente diferente necesita tomarse con respecto a llevar a cabo estas tareas en
Linux. Por ejemplo, la instalación, configuración y mantenimiento de controladores fueron
temas importantes que funcionan de manera diferente que en otros sistemas operativos.
Instalar físicamente el hardware se hace de manera muy similar a cualquier otro sistema
operativo, no obstante, debe prestarse particular atención al localizar y asegurar que los
controladores Linux estén disponibles para el dispositivo. Como sucede con la mayor parte de
las instalaciones de hardware y software, los problemas son inevitables. Algunos de los
problemas más comunes tienden a ser motherboards, CPUs y RAM sobrecalentados o
defectuosos. Otros problemas comunes incluyen dispositivos EIDE y SCSI mal configurados
o defectuosos. También está la instalación en laptop, administración de la energía, y
problemas con dispositivos de placa de PC, que requieren atención especial. Ésta puede
parecer una tarea difícil, pero es común cuando se instala y configura nuevo hardware con
cualquier sistema operativo, incluyendo a Linux.
13. Detección de problemas del sistema operativo
Descripción general
Detectar y resolver problemas en un sistema que ha manifestado algún nivel de fallo
puede ser uno de los trabajos más estresantes en informática. Cuando la oficina IT
central de una compañía grande llama por teléfono a un administrador de sistemas a
las 3:00 de la mañana para quejarse por conectividad de networking perdida, nadie
está contento. También es un problema cuando un vicepresidente corporativo no
puede imprimir el informe en el que ha venido trabajando por semanas a tiempo para
una reunión a las 7:00 de la mañana en un desayuno con el CEO. Todas las partes no
desean más que resolver el problema eficaz y rápidamente.
Los administradores de sistemas experimentados confían en una metodología probada y
sistematizada para resolver problemas del sistema. Deben poder reconocer condiciones de
error comunes y conocer sus causas usuales. Deben aprender a evaluar síntomas de manera
tal que puedan aislar su probable origen. Luego es necesario aplicar su experiencia en
conocer qué clase de pruebas ejecutar y qué avenidas explorar para verificar hipótesis
relativas al problema, o reunir más datos. Necesitan saber qué hacer para arreglar el
problema, o adónde dirigirse para obtener asistencia rápidamente, luego seguir adelante y
hacerlo. Deberán documentar lo que aprenden por el camino para hacer más fácil atacar
cualquier recurrencia del problema. Finalmente, necesitan educar a los usuarios de manera
que se evite que el problema vuelva a ocurrir, o al menos permitirles proporcionar feedback
significativo si lo hace.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.1
Problemas de Hardware
Cuando un usuario afligido experimenta problemas de sistema, no es suficiente para él o ella
lamentarse, "¡Esta computadora no funciona!" El problema puede ser real, y las emociones
expresadas sobre él ser sinceras, pero no se ha proporcionado la suficiente información para
permitir al técnico que la arregla saber por dónde empezar. Aunque unos pocos problemas se
deben a una combinación de factores, la mayoría puede aislarse en uno de los siguientes orígenes:
·
·
·
Hardware Un componente de hardware del sistema ha funcionado mal, o se lo espera pero
no está presente.
Kernel Un bug o falta de funcionalidad en el kernel del sistema a veces causa problemas
de origen ambiguo.
Software de aplicaciones El software de aplicaciones o utilidades de comandos a nivel
del usuario pueden comportarse extrañamente, o simplemente colapsarse.
397
·
·
Configuración Los servicios del sistema o el software de aplicaciones puede estar mal
configurado.
Error del usuario Una de las más frecuentes fuentes de condiciones de error es causada
por usuarios de computadoras intentando hacer algo de la manera equivocada.
Cada tipo de condición de error puede categorizarse de una de dos maneras, consistente o
inconsistente. Un problema consistente es uno que de forma demostrable y positivamente ocurre
una y otra vez. Los problemas inconsistentes son aquéllos que ocurren sólo esporádicamente, o
bajo condiciones indeterminadas.
El último tipo es mucho más difícil de atacar, porque factores desconocidos causan el problema.
Antes de poder encontrar una solución, es necesario tener una clara definición de todas las
condiciones que pueden estar relacionadas. Por ejemplo, si el usuario de una pieza de software de
oficina selecciona una opción del menú y el programa se cae cada vez, dejando una extracción del
núcleo, se trata de un problema reproducible. Por otro lado, si el usuario selecciona esa opción y a
veces funciona, mientras que otras se cae, eso sugiere que algo desconocido podría estar
involucrado acerca del camino que tomó el usuario para llegar a ese estado. Es necesaria más
información para ver qué más podría haber hecho que puede haber causado el problema.
Algunos errores de hardware serán obvios. Si una unidad de disco comienza a sacudirse o deja de
escucharse en absoluto, si se detecta humo, o las luces del equipo no se están encendiendo como
lo hacen normalmente, es probable que haya un problema del dispositivo físico. Si un trabajo de
impresión en una impresora que ha estado funcionando bien resulta desteñido, en blanco, o con
colores extraños, la impresora podría necesitar un nuevo cartucho, no diferente software de
controladores.
Otro hardware deja rastros que el kernel detecta y registra. Suponiendo que un error es tal que no
hace caer el sistema, podría quedar evidencia en el archivo log /var/log/messages, con el mensaje
prefijado por la palabra oops. Un ejemplo de este archivo log se muestra en la Figura . La
presencia de tal mensaje no es necesariamente un error de hardware, aunque existe la posibilidad.
Es importante comprender lo que está localizado dentro del directorio /dev al tratar cómo detectar
problemas de hardware en Linux. El directorio /dev contiene archivos especiales conocidos como
archivos de dispositivos, que se usan para acceder a todos los tipos diferentes de hardware de un
sistema Linux. Por ejemplo, el archivo /dev/mouse es para leer entradas del mouse. Organizando
el acceso a los dispositivos de hardware de esta manera, Linux eficazmente hace parecer la
interfaz de un dispositivo de hardware como cualquier otra pieza de software. El directorio /dev es
un buen lugar para empezar a mirar al detectar problemas de hardware.
398
13.1
Identificación y Localización de Síntomas y Problemas
13.1.2
Problemas del Kernel
Los kernels Linux lanzados son considerablemente estables, a menos que se usen versiones
experimentales o se hagan modificaciones individuales. Los módulos de kernel descargables se
consideran parte del kernel también, al menos durante el periodo durante el que se los descarga. A
veces éstos también pueden ocasionar dificultades. La buena noticia con respecto a los módulos es
que pueden desinstalarse y reemplazarse por versiones fijas mientras el sistema aún está
funcionando.
Los problemas con los módulos a menudo se identifican en el transcurso del uso de una aplicación
que los llama. Por ejemplo, si un usuario intenta reproducir un archivo de sonido que requiere un
módulo que no ha sido cargado, el kernel informará que el controlador o una función a la que llama
no está presente en la memoria y necesita cargarse.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.3
Software de aplicaciones
Los errores en paquetes de aplicaciones son más identificables por el hecho de que ocurren
solamente cuando se ejecuta la aplicación. Esto, en contraste a las condiciones de hardware o
kernel que afectan a todo el sistema. Algunas señales comunes de bugs en aplicaciones son el
fallo al ejecutar y la caída del programa.
Fallo al ejecutar
El programa no iniciará en absoluto, sugiriendo que su archivo principal podría no tener permiso
para su ejecución. O puede parecer iniciar, pero no inicializa enteramente, y se cierra o se queda a
mitad de camino, a veces con un mensaje de error mostrado en una ventana, en la línea de
comandos, o en un archivo log.
Caída del programa
Cuando un programa en ejecución se cae, usualmente lo hace sin guardar los datos o archivos en
los que está trabajando un usuario. A veces se registran mensajes de error en uno de los lugares
de costumbre. En otros momento queda un archivo del núcleo, lo cual es una señal definida de que
la aplicación en sí sufrió un fallo catastrófico. Un archivo del núcleo puede examinarlo con un
debugger alguien que conozca la aplicación y que tenga código fuente disponible. En situaciones
de emergencia, no obstante, los archivos del núcleo son generalmente de poco uso.
Una variante de este caso es un programa bloqueado. La aplicación sigue ejecutándose, pero no
procede hacia ningún sitio. Esto requiere que el proceso se elimine con kill desde una línea de
comandos. A veces eliminarlo con señal 3 (SIGQUIT) hará que termine y deje una imagen de su
memoria en un archivo del núcleo. Este archivo puede enviarse al fabricante del software con una
399
descripción del problema en espera de obtener una respuesta y solución a largo plazo. La realidad
es, no obstante, que la mayoría de los fabricantes de software no responden a las necesidades de
usuarios desafortunados que han sido víctimas de su software fallido. Algunas aplicaciones están
diseñadas para mostrar una memoria al recibir ciertas señales, que pueden ser informativas, a
veces incluso sin la disponibilidad del código fuente. Desafortunadamente, éste tiene que
conocerse antes de que el problema surja.
Agotamiento de recursos
Los recursos del sistema se refieren principalmente al tiempo de la CPU, memoria, y espacio en
disco. Una aplicación puede consumir demasiada memoria del sistema y en última instancia
comenzar a intercambiar tanto que todo el sistema se ve afectado. Puede entrar en un bucle que
consume mucho espacio en el tiempo de la CPU. Puede comenzar a escribir archivos que se
hacen muy grandes y hacer que el sistema de archivos se quede sin espacio. Tal mal
comportamiento es generalmente un fallo de la aplicación, no del sistema.
Mal comportamiento específico de un programa
Algunos errores son causados por cosas que tienen que ver con la ejecución del programa en sí.
Por ejemplo, si un procesador de texto tiene una función que permite al usuario saltar hasta una
cierta página del documento, y se le indica que vaya a la página 999999999999 y se cae, a la
aplicación probablemente le falta código para verificar desbordes de enteros.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.4
Configuración
Muchos paquetes pueden y debe ajustarse para una instalación local antes de ser usados.
Simplemente instalar el software en el sistema no es suficiente. Los problemas de configuración
tienden a afectar a subsistemas enteros, como subsistemas de gráficos, impresión, o networking.
Por ejemplo, si una costosa terminal SVGA se conecta a una placa adaptadora gráfica de alta
potencia en un sistema de escritorio y muestra solamente los gráficos de baja resolución más
granulados, es probable que el subsistema de gráficos X esté mal configurado. Tal vez el programa
Xconfigurator necesite ejecutarse. Programas que dependen de servicios de networking son
particularmente responsables de causar problemas. Si el sistema se reinicia y un sistema de
archivos remoto que una vez estuvo presente no lo está, el primer lugar donde buscar es en el
archivo de configuración /etc/fstab para ver si se supone que el sistema de archivos se monte en el
momento del arranque. Un ejemplo del archivo /etc/fstab se muestra en la Figura . Si se está
enviando e-mail, pero mailq muestra que el correo saliente simplemente espera en una cola y
nunca sale del sistema, podría ser necesario investigar la configuración para el agente de
transporte de correo.
Allí donde un problema de configuración ocurre en software de aplicaciones, deberá determinarse
si ocurre en todo el sistema, o a solamente un usuario. La mayoría del software configurable
incluye archivos de configuración del sistema por defecto y permite a los usuarios individuales
personalizar el comportamiento del programa según sus gustos. Por ejemplo, si un navegador del
sistema funciona bien para todo el mundo excepto para un usuario que ve tanto el texto como el
fondo del mismo color. Es probable que esta persona haya estado experimentando con las
propiedades del navegador y puede necesitar un poco de asistencia para restaurar una
funcionalidad razonable.
400
13.1
Identificación y Localización de Síntomas y Problemas
13.1.5
Error del usuario
Es perdonable cometer un error al usar un programa informático o ignorar la forma correcta de
hacer algo. Lo que es imperdonable es insistir en permanecer tozudamente así. Hay más para
conocer acerca de los detalles intrincados de operar casi cualquier paquete de software que lo que
los usuarios cotidianos jamás se preocupen o intenten aprender. A menos que un usuario tenga un
particular interés en un programa y una cantidad extra de tiempo para explorar funciones a las que
puede nunca dar uso, tendrá que conformarse con lo que funciona.
Por lo tanto es raramente una sorpresa cuando los usuarios se quedan atascados en el software o
simplemente encuentran que son incapaces de ir del punto A al punto B. Supongamos: "no puede
llegar allí desde aquí". A veces un poco de instrucción es todo lo necesario para ayudar a alguien a
superar un problema.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.6
Uso de utilidades del sistema y uso de herramientas de estado del sistema
Los sistemas operativos Linux proporcionan diversas utilidades del sistema y herramientas de
estado del sistema. Estas herramientas son útiles para ayudar a identificar o diagnosticar ciertos
problemas del sistema operativo. Las siguientes utilidades devuelven información acerca de la
configuración actual del sistema y en algunos casos permiten cambiar la configuración si necesita
arreglarse. También es importante saber que estas utilidades son útiles a un grado que devolverán
información acerca de cómo el sistema o un archivo "deberían" configurarse, pero no proporcionan
información sobre qué archivo o configuración del sistema exactos están mal configurados.
·
·
·
setserial Esta utilidad proporciona información y configura opciones para los puertos serial
del sistema. Los puertos serial en un sistema Linux son por lo común /dev/ttyS0 y
/dev/ttyS1. Introduciendo el comando setserial -a /dev/ttyS0 en el shell, el sistema
devolverá información detallada incluyendo el tipo de hardware que está conectado al
puerto serial en particular, la velocidad del puerto, y los recursos de hardware usados por el
puerto. Un ejemplo de la salida del comando setserial -a /dev/ttyS0 se muestra en la Figura
.
lpq Este comando ayuda a resolver problemas de impresión. El comando mostrará todos
los trabajos que están esperando para ser impresos. Es de ayuda porque puede usarse
para determinar si hay un problema en la cola de impresión, o determinar si el sistema Linux
no puede encontrar la impresora en absoluto. Si el trabajo de impresión que se envió
desaparece de la cola, hay algo mal en la cola de impresión. No obstante, si el trabajo de
impresión permanece en la cola entonces el problema más probable es que el sistema tiene
problemas para encontrar la impresora. Un ejemplo de la salida de este comando se
muestra en la Figura .
ifconfig Esta utilidad y sus usos se tratarán en más detalle posteriormente en este capítulo.
No obstante, este comando puede introducirse en el shell para que devuelva la
configuración de interfaz de red actual del sistema. Este comando devolverá la dirección IP
actual del sistema, la máscara de subred, el gateway por defecto, el servidor DNS, el
servidor DHCP, la IRQ que usa la placa de red, etcétera. Un ejemplo de la salida del
401
·
comando ifconfig se muestra en la Figura .
route Esta utilidad y sus usos también se tratarán en más detalle en este capítulo. Este
comando muestra o configura la información acerca del enrutamiento del sistema, que
utiliza para enviar información a direcciones IP en particular. Este comando puede ser útil
para obtener información que puede ser de ayuda en la resolución de problemas de
conectividad de red. Un ejemplo de la salida del comando route se muestra en la Figura .
Hay varios otros tipos de utilidades del sistema y herramientas de estado que pueden usarse para
examinar problemas en un sistema Linux que ya se han tratado a lo largo de este curso. Éstas
incluyen comandos como las utilidades para disco rígido du y df, el comando top, así como la
utilidad del sistema de archivos fsck.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.7 Programas y procesos que no responden
A veces hay programas o procesos que por diversas razones pueden no responder o "bloquearse".
A veces solamente el programa o proceso en sí se bloquea y otras veces pueden ocasionar que
todo el sistema deje de responder. Un método para identificar y localizar el programa que no
responde y resolver eficazmente el problema es eliminar o reiniciar el proceso o programa. Algunos
de los temas tratados en esta sección han sido tratados en otros capítulos, no obstante hay otras
consideraciones de resolución de problemas a tener en cuenta en el caso de programas y procesos
402
que no responden.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.8
Cuándo iniciar, detener o reiniciar un proceso
Como se mencionó en capítulos anteriores, a veces es necesario terminar el proceso que no
responde a sus funciones normales. Cuando un proceso no responde puede realmente hacer
mucho daño a un sistema informático. Lo más importante, estos procesos "colgados" pueden
consumir todos los recursos del sistema tomando control del tiempo de la CPU. Eventualmente
estos procesos que no responden pueden hacer que todo el sistema se caiga si no se los trata
apropiadamente. Es importante estar seguros de que un proceso se ha bloqueado antes de
eliminarlo aunque parezca bloqueado, porque algunos procesos se cuelgan un breve tiempo
cuando están procesando datos. Otras razones por las cuales se necesita terminar procesos que
no responden son si comienza a quedar fuera de control y está consumiendo espacio en disco,
memoria y RAM del sistema.
Lo más fácil para terminar un programa es usar el comando kill, Otros procesos necesitan
terminarse editando el script de inicio Sys V que se trató en el Capítulo 10. La razón por la cual
algunos programas y procesos necesitan detenerse editando el script de inicio Sys V en lugar de
simplemente usar el comando kill, es que, algunos programas usan otros archivos llamados
archivos de bloqueo. Los archivos de bloqueo indican que el programa está usando un recurso que
no debería. Si un programa se termina usando el comando kill, el archivo de bloqueo quedará y
cuando el programa se ejecute nuevamente, lo más probable es que falle. Si esto ocurriera, se
generará un mensaje de error. Los archivos log del sistema pueden verse para determinar la
presencia de un archivo de bloqueo. Si se muestra un mensaje de error, entonces se recomienda
verificar la documentación del programa para determinar dónde está almacenado el archivo de
bloqueo. Los archivos de bloqueo pueden simplemente borrarse y el problema se soluciona. Al
reiniciar un programa, servicio, o daemon lo mejor es consultar primero la documentación porque
diferentes programas tienen que reiniciarse de maneras diferentes. Algunos soportan el uso del
comando restart, algunos necesitan detenerse completamente y luego iniciarse otra vez, y otros
pueden simplemente releer sus archivos de configuración sin necesitar detenerse y volverse a
iniciar, o reiniciarse.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.9
Solución de problemas persistentes
Programas que ocasionan problemas persistentes y necesitan reiniciarse constantemente podrían
generar llamadas para la resolución de problemas recurrentes. Esto usualmente significa que el
programa tiene algún problema o bug interno. Una de las primeras cosas que pueden hacerse es
verificar con el fabricante y ver si se ha lanzado alguna actualización o patches. Otro problema que
puede estar causando que un programa tenga problemas recurrentes es un problema de hardware.
Problemas con la CPU, la RAM, el motherboard, y otros componentes de hardware pueden causar
problemas para algunos programas. En algunos casos de un fallo de hardware todo el sistema o el
sistema de archivos del sistema operativo puede caerse.
La mejor forma de arreglar programas que se caen repetidamente es reemplazarlos con nuevo
software o con un tipo diferente de software que realice la misma tarea. El software reemplazante
puede no ser una opción o ni siquiera estar disponible, sin embargo. La solución a esto es mucho
más dificultosa. De ser posible, intente usar el software de manera diferente o si hay una tecla o
comando en particular que hace que el programa falle, deje de usarlos. La mayoría de las veces
habrá software de reemplazo disponible. Si se trata de un daemon que se cae regularmente intente
403
usar otros métodos para iniciarlo y ejecutarlo. Los diversos métodos para iniciar daemons en un
sistema Linux se describieron en el Capítulo 10.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.10
Examen de los archivos log
Los archivos log se mencionaron por primera vez y se introdujeron en la sección 11.4.4 del Capítulo
11. Las diversas actividades de un servidor Linux, el kernel del sistema operativo, y las utilidades
del sistema se registran en archivos log. También se mencionó en la sección 11.4.4 del Capítulo 11
que la mayoría de archivos log se localizan en el directorio /var/log o en un subdirectorio. Algunos
de los archivos log más importantes en un sistema Linux son los archivos log /var/log/messages,
/var/log/secure, y /var/log/syslog. La Figura muestra todos los archivos log que están ubicados
en el directorio /var/log. Examinar los archivos log puede ser de ayuda en la identificación de varios
problemas en un servidor Linux. Los archivos log del sistema pueden usarse para monitorear
cargas del sistema tales como cuántas páginas ha servido un servidor web. También pueden
verificar rupturas de la seguridad tales como intentos de intrusión, verificar que el sistema esté
funcionando apropiadamente, y anotar cualquier error que podría ser generado por el software o los
programas. Hay varios diferentes tipos de información que es bueno saber, que hará de la
identificación de problemas usando los archivos log algo un poco más fácil. Algunas de estas cosas
se enumeran a continuación.
Monitoreo de Cargas del Sistema
Los servidores están diseñados y construidos para aceptar solicitudes entrantes de otros usuarios
de la red de área local (LAN) o externamente de usuarios remotos o de Internet. El servidor
necesita estar construido de manera tal que pueda manipular estas solicitudes de manera eficiente.
Los archivos log pueden usarse para determinar qué solicitudes se están haciendo que podrían
hacer que el servidor se ralentice. Si el servidor recibe un gran incremento en la cantidad de
solicitudes entrantes o los archivos transferidos se incrementan en tamaño, entonces será
necesario tomar las medidas apropiadas para incrementar la capacidad del servidor para manejar
la carga. Esto podría incluir el agregado de otro servidor, router, o switch, en lugar de solamente
404
mejorar un servidor existente. Tenga en cuenta que estos archivos log mantendrán un rastreo de
incrementos de carga solamente en los programas específicos del servidor. Esto significa que
solamente registrarán los eventos de los programas y servicios que se ejecutan en el servidor y no
cualquier problema ocasionado por un incremento en las demandas de la estación de trabajo. No
obstante, puede ser fácil determinar si las demandas de la estación de trabajo se incrementarán
porque un administrador del sistema sabría si los usuarios van a usar programas más intensivos en
materia de recursos.
Intentos de Intrusión y su Detección
Puede ser difícil detectar una intrusión a una red o servidor. Un examen apropiado de los archivos
log del sistema puede ayudar a descubrir cómo y dónde ocurrió la intrusión, así como qué cambios
hizo el atacante en el sistema o la red. Cuando una persona irrumpe en un sistema, intentará
modificar herramientas y utilidades del mismo. Esto afecta el desempeño o la confiabilidad. Los
intrusos pueden tan sólo borrar archivos importantes y borrar archivos log para hacer difícil
averiguar qué daño han hecho al sistema. Por esta razón es una buena idea monitorear
continuamente los archivos log para que cualquier cambio o entrada inusual llame la atención.
Funcionamiento Normal del Sistema
Los archivos log también pueden examinarse para asegurarse de que el sistema está funcionando
en un estado normal. Si hay algo mal en el sistema, la información de los archivos log puede
ayudar a identificar y eliminar posibles problemas. Por ejemplo, un sistema Linux puede estar
configurado como servidor DHCP en el cual es posible distribuir direcciones IP a estaciones de
trabajo cliente. Los archivos log pueden examinarse para ver si el servidor está recibiendo
solicitudes y está distribuyendo préstamos de direcciones IP. Si las solicitudes se están recibiendo
el problema puede reducirse a un problema del lado del cliente y no a un problema con el servidor.
Entradas Faltantes
Si a cualquiera de los archivos log le faltan entradas, esto puede indicar que algo en el servidor no
está funcionando apropiadamente o está mal configurado. Entradas faltantes en archivos log
también pueden indicar un problema en otro lugar que no sea el servidor. Por ejemplo, un servidor
de archivos está configurado para ejecutar Samba para que los clientes que usan Microsoft
Windows puedan acceder al servidor Linux, y Samba está configurado para registrar intentos de
acceso al servidor. Supongamos que el log se verifica después para ver quién está intentando
acceder al servidor y se descubre que faltan entradas. Estas entradas faltantes pueden indicar que
hay un error de configuración en el daemon Samba del servidor. También podría significar que hay
un problema externamente a la red con un router o firewall que está evitando el acceso. Lo cual
significa que el servidor podría no ser el problema en absoluto.
Mensajes de Error
Muchos de los archivos log de un sistema Linux contendrán diversos mensajes de error que
pueden usarse para ayudar a localizar e identificar cualquier problema o mala configuración del
servidor. Por ejemplo, un archivo log puede contener información sobre un error de autenticación.
Este mensaje de error sería de utilidad porque le indica a un administrador del sistema dónde
deberían comenzar los esfuerzos de detección de problemas. Muchos programas y utilidades del
servidor pueden configurarse para que registren información específica, lo cual puede ayudar
también en los esfuerzos de detección de problemas. Se recomienda consultar la documentación
de los programas en cuanto a las opciones de configuración que están disponibles porque pueden
variar dependiendo del programa en particular.
Uso de tail y head
Los comandos tail y head Linux pueden ser de ayuda para examinar archivos log del sistema.
Algunos archivos log contienen numerosas páginas de información y texto. Usando los comandos
tail y head es posible procesar solamente una parte del archivo log para mostrar solamente la
información o texto que se especifiquen, en lugar de todo el archivo log de una sola vez. Por
ejemplo, si deseara ver unas pocas líneas del principio o final del archivo log, usar el comando
head enviaría las primeras 10 líneas y el comando tail enviaría las últimas 10 líneas a la salida
estándar.
405
También es posible manipular más allá la salida deseada usando las diversas opciones del
comando. Visite las páginas man de los comandos tail y head para ver una lista más abarcativa de
las opciones disponibles. Se puede cambiar la cantidad de líneas que estos comandos envían a su
salida estándar con la opción -n. Para instruir a head o tail que usen bytes en lugar de líneas se
usaría la opción -c en lugar de -n. Por ejemplo, para mostrar los primeros 200 caracteres del
archivo log, use el comando head -c 200 file, o use el comando -c 200 file para mostrar los últimos
200 caracteres. Otras opciones incluyen agregar una b (por bloques) después de 200, lo que
multiplicaría el valor por 512. De manera similar, k (por kilobytes) multiplica el número dado por
1024, y m (por megabytes) multiplica el número dado por 1048576 bytes.
Algunos archivos log continuarán procesando los datos y continuarán agregando datos mientras
está instruyendo a head o tail para que lean datos del archivo específico. Un ejemplo de esto serían
los archivos log para el servidor web Apache. Es enteramente posible que mientras se intenta ver
inicios de sesión exitosos o fallidos al sitio web los usuarios, al mismo tiempo, estarán intentando
acceder al sitio web. Usar la opción -f le indica a tail que siga leyendo los datos del archivo
especificado y alimente esos datos a su propia salida estándar. Esta opción es perfecta para
monitorear logs del sistema. Por ejemplo, tail -f /var/log/access.log ejecutado en una ventana
terminal separada, seguirá imprimiendo nuevas entradas de inicio de sesión de acceso a Apache a
medida que son agregadas después de cada intento hasta que lo detiene con Ctrl-C.
Examinar archivos log puede ser útil para identiifcar diversos problemas como problemas en el
kernel, aplicaciones, configuración y también problemas del usuario. Los archivos log pueden ser
de mucha ayuda al intentar identificar y localizar problemas de software con el kernel, servidor,
herramientas de inicio de sesión del usuario, y otras utilidades del sistema.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.11
El comando dmesg
Parte de la información más importante y de más ayuda registrada en los archivos log que puede
ser útil para detectar e identificar problemas son los mensajes de inicio del kernel. Estos mensajes
pueden ser de particular ayuda al identificar problemas de hardware y del kernel. El comando
dmesg puede usarse para mostrar los mensajes recientes del kernel, también conocidos como
buffer anillo del kernel. Un ejemplo de la salida de este comando se muestra en la Figura . Note
que cuando el sistema arranca y Linux está comenzando a cargarse, una serie de mensajes del
buffer anillo del kernel se deslizan por la pantalla a medida que el sistema está inicializando los
dispositivos y servicios. Estos mensajes contienen información importante acerca del hardware
instalado en el sistema y los controladores. La información de estos mensajes se relaciona con si
los controladores se están cargando exitosamente y qué dispositivos están controlando los
controladores, como controladores [controllers] EIDE o SCSI, por ejemplo.
Hay diversas instancias en las cuales el comando dmesg puede ser muy útil. Pensemos en un
servidor que contiene dos placas Ethernet, una de las cuales no están funcionando. Tipeando el
comando, dmesg | less, después del inicio del sistema puede verse información acerca de las
dos placas Ethernet que están instaladas en el sistema. Mirando los mensajes del kernel en el
archivo log puede determinarse si hay una entrada para la placa no funcional o no. Si no hay una
entrada para la placa, el problema podría ser que el controlador no se está cargando o podría ser el
controlador equivocado para la placa. Si hay una entrada para la placa pero aún así no funciona, el
problema reside en algún lugar de la configuración de red de la placa. Use variables con el
comando dmesg para reducir la cantidad de mensajes que se muestran. Por ejemplo, usando el
comando grep, se mostrarán solamente las líneas que pertenecen a la placa Ethernet no
406
funcional. El comando usado para llevar a cabo esta operación sería dmesg | grep ethX, donde
X es el dispositivo Ethernet en cuestión.
La información contenida en dmesg es tan valiosa para un sistema Linux que la mayoría de las
distribuciones automáticamente envían la salida al archivo log /var/log/boot.messages . Si la
distribución no hace esto, puede arreglarse colocando la línea , /font> dmesg >
/var/log/boot.messages en el script /etc/rc.d/rc.local.
13.1
Identificación y Localización de Síntomas y Problemas
13.1.12
Detección de problemas basándose en el feedback del usuario
A veces la mejor forma de identificar un problema con una computadora es localizar a la persona
que usa el sistema más a menudo o la persona que usó el sistema cuando se informó acerca del
problema. No todos los usuarios tienen la capacidad de entregar apropiadamente la información
correcta acerca de cuál es el problema o qué estaban haciendo cuando comenzaron a
experimentarlo. Por lo tanto, cualquier información que se obtenga de los usuarios deberá usarse
como punto de partida pero se recomienda que el problema se investigue y reproduzca para
asegurarse de cuál es el problema. Muchos problemas que los usuarios informan provienen
simplemente de su falta de comprensión y conocimiento de cómo funcionan los sistemas
informáticos. Hay varios tipos diferentes de problemas que los usuarios reportan. Algunos de los
más comunes se describen en esta sección.
Problemas de Inicio de Sesión
Uno de los tipos más comunes de problemas de los cuales se quejan los usuarios es que no
pueden iniciar sesión en el sistema. Frecuentemente cuando esto ocurre no se debe a que haya
ocurrido ningún problema sino más bien a que han olvidado su contraseña, la han tipeado
incorrectamente, o la contraseña ha expirado. Recuerde que las contraseñas de un sistema Linux
son sensibles al uso de mayúsculas y minúsculas. Si la contraseña ha expirado entonces es
necesario re-habilitarla, para que el usuario pueda cambiar la contraseña o una nueva pueda
asignarse.
Problemas de Permisos de Archivos
Los problemas de permisos de archivos no son tan comunes como los problemas de inicio de
sesión, no obstante podría haber un usuario que tenga problemas para acceder a un archivo
compartido. Éste no es normalmente un problema si el usuario trabaja con archivos en sus propios
directorios, pero sí puede serlo cuando los usuarios necesitan acceso a archivos en otros
directorios. En algunos casos, puede ser necesario explicar cómo funcionan los permisos del
sistema Linux para evitar estos tipos de problemas.
Problemas con Medios Removibles
Linux maneja los medios removibles de manera muy diferente a otros sistemas operativos, como
Windows. Los usuarios muy a menudo tendrán muchas quejas. Incluso aunque la interfaz GUI
puede hacer parecer que se puede acceder a medios removibles como disqueteras y CD-ROMs
simplemente insertando el medio y buscando los archivos, no puede hacerse. Aún tienen que
montarse y desmontarse. Es importante señalar esto a los usuarios y explicarles cómo usar
apropiadamente los comandos mount y umount. Por defecto solamente la cuenta superusuario
puede usar los comandos mount y umount. Puede ser una buena idea modificar el archivo
/etc/fstab para que los usuarios puedan montar y desmontar los medios removibles por sí
mismos. Un ejemplo del archivo /etc/fstab se muestra en la Figura . La disquetera puede
eyectarse sin desmontarla primero, lo cual puede conducir a archivos corrompidos. La mayoría de
los dispositivos, no obstante, como los CD-ROMs, se bloquearán para que no puedan eyectarse a
menos que hayan sido desmontados primero. Los otros tipos de medios que no pueden eyectarse
a menos que hayan sido desmontados pueden conducir a muchas llamadas de resolución de
problemas innecesarias a menos que se haya explicado a los usuarios cómo montar y desmontar
apropiadamente unidades de medios removibles.
407
Problemas con el E-mail
El e-mail deberá funcionar para los usuarios cuando ha sido configurado correctamente. Esto es
particularmente cierto si todo lo que el usuario tiene que hacer es extraer su correo del servidor
SMTP localmente. No obstante, si hay usuarios remotos podría ser una buena idea instruirlos
respecto a cómo configurar sus cuentas de correo para que éste pueda ser recuperado sin
problemas.
Errores en los Programas
Los usuarios informarán a menudo que un programa se cayó. La mejor opción es enfocar esto caso
por caso porque cada programa requerirá un diferente enfoque para resolver sus problemas.
Obtenga tanta información del usuario como sea posible en cuanto a cualquier mensaje de error
que puede haber aparecido o a qué estaba haciendo cuando el programa se cayó para recrear los
eventos que ocasionaron el error.
Problemas de Apagado
Linux siempre deberá apagarse usando el comando shutdown. Esto se explicó en capítulos
anteriores. No obstante, solamente el usuario raíz puede usar este comando. A los usuarios que
experimentan problemas al apagar debería mostrárseles cómo usar la opción de apagado de la
GUI que permitirá el apagado del usuario no raíz de un sistema Linux. Es importante que los
usuarios sepan cómo apagar el sistema Linux apropiadamente porque un apagado inapropiado
puede ocasionar diversos problemas como procesos de inicio prolongados, seria corrupción de
archivos del sistema, y pérdida de datos. Si los usuarios se quejan de tales problemas puede
hacerse la sugerencia de que el sistema debe apagarse apropiadamente.
13.2
Errores de Arranque de LILO
13.2.1
Códigos de error
El cargador de arranque LILO fue mencionado por primera vez en el Capítulo 9, por lo cual debería
haber una firme comprensión de qué hace el cargador Linux (LILO) en un sistema Linux. El
cargador de arranque LILO es la primera pieza de código que toma control de proceso de arranque
desde el BIOS. Carga el kernel Linux, y luego cede el control enteramente al kernel Linux. Hay
muchas instancias que ocasionarán errores de arranque de LILO. El sistema BIOS para la mayoría
de las computadoras impulsadas por el procesador x86 fue diseñado en primer lugar para sistemas
en los cuales la capacidad del disco rígido era de meramente 40 MB. Para estos sistemas, los
programas y sistemas operativos de 32 bits o incluso de 64 bits que se están haciendo disponibles
eran cosa de fantasía y ciencia ficción. No obstante, hoy sabemos que la tecnología de hardware
de computadoras evolucionó a velocidades sorprendentes, y como resultado la tecnología BIOS ha
evolucionado también. Los cambios en la tecnología combinados con las necesidades de LILO
pueden desafortunadamente conducir a que LILO no funcione apropiadamente. Cuando LILO no
funciona correctamente puede ser frustrante porque usualmente significa que el sistema no
arrancará. Los mensajes de error o códigos que produce LILO pueden ser difíciles de interpretar.
Comprender cómo arreglar y sortear estos problemas puede ayudar a reparar el error de LILO y
regresar el sistema a un orden funcional. Es importante que se comprenda cómo se instala y
configura LILO antes de proceder con esta sección, así que podría ser una buena idea repasar la
sección en particular del Capítulo 9. También es importante mencionar que incluso aunque otros
cargadores de arranque pueden usarse para arrancar Linux, LILO se trata aquí porque es el que se
usa en los sistemas x86. Éstos son los sistemas que se usarán en este curso y es el cargador de
arranque que se instala en este curso. LILO no se usa en sistemas procesadores no x86.
408
El primer paso en la comprensión de los errores de arranque de LILO es poder comprender e
interpretar los diversos códigos de error de LILO que pueden generarse. Cuando hay un problema
con LILO, se mostrará un código de error. Algunos de los diversos códigos de error que pueden
mostrarse se enumeran y explican abajo.
·
·
·
·
·
·
·
Ninguno
L código-error
LI
LI101010…
LILLIL?
LILO
Ninguno
Si no hay ningún código de error esto significa que LILO no se ha cargado. Esto puede deberse a
que LILO no se instaló o puede haberse instalado en la ubicación equivocada. Verifique el archivo
/etc/lilo.conf y asegúrese de que la configuración sea correcta, luego use el comando lilo para
instalar LILO. Para obtener una mejor comprensión de qué significan las líneas del archivo
/etc/lilo.conf es una buena idea mirar la página man de lilo.conf, que también se muestra en la
Figura . LILO puede haber sido instalado en una partición diferente, en cuyo caso esa partición
en la que está instalado LILO deberá hacerse la partición de arranque. Todos estos tópicos se
tratan en el Capítulo 9.
L código-error
Esto significa que LILO ha comenzado a arrancar pero no puede arrancar el cargador de arranque
de la segunda etapa. El código-error generado es un número de dos dígitos que es generado por
el BIOS. Los códigos que estos números representan se detallan en la documentación de LILO. La
mayoría de los códigos de error representan fallos de hardware como un disco rígido defectuoso o
una discrepancia en cómo LILO y el BIOS acuerdan tratar las direcciones de disco. Si el disco
rígido está defectuoso, tome las medidas apropiadas para confirmar si el disco rígido falló. Si las
configuraciones de LILO y el BIOS son diferentes en cómo tratan las direcciones de disco, haga los
cambios necesarios en el BIOS o en el archivo /etc/lilo.conf.
LI
Esto significa que LILO ha iniciado y los cargadores de la primera y segunda etapa se han cargado,
pero el cargador de la segunda etapa no funciona. Este tipo de código de error es usualmente el
resultado de los mismos síntomas que la condición L código-error.
409
LI101010…
Esto significa que LILO ha sido cargado y se está ejecutando apropiadamente pero no puede
localizar la imagen en el kernel. Este código de error usualmente se verá cuando un nuevo kernel
se ha cargado o actualizado y el comando lilo nunca se usó para reinstalar LILO.
LIL
Esto significa que los cargadores de la primera y segunda etapa han sido cargados exitosamente y
están funcionando de manera apropiada. No obstante, LILO es incapaz de leer la información que
necesita para funcionar. Este código de error es usualmente el resultado de algún fallo en el
hardware o incoincidencia en la geometría del disco entre LILO y el BIOS. Este problema puede
arreglarse configurando o corrigiendo la opción necesaria en /etc/lilo.conf o haciendo los cambios
necesarios en el BIOS. Un ejemplo del archivo /etc/lilo.conf se muestra en la Figura .
LIL?
Esto significa que el cargador de arranque de la segunda etapa ha sido cargado correctamente
pero se encuentra en una dirección incorrecta. Este problema puede ser ocasionado al mover
/boot/boot.b, que es el archivo cargador de arranque de la segunda etapa, sin usar el comando
lilo para reinstalar LILO o por una incoincidencia en la geometría del disco entre LILO y el BIOS.
LILEsto significa que la tabla descriptora del disco (/boot/map) está corrompida. Este problema puede
ser ocasionado al mover /boot/map, que es el archivo del cargador de arranque de la segunda
etapa, sin usar el comando lilo para reinstalar LILO o por una incoincidencia en la geometría del
disco entre LILO y el BIOS.
LILO
Esto significa que LILO se ha cargado exitosamente y está funcionando. En este punto no debería
haber ningún problema con LILO que haga que el sistema no arranque. Si el sistema aún no
arranca apropiadamente en este punto, el problema reside en alguna otra parte, posiblemente en el
kernel, sus controladores o archivos de configuración del sistema.
Note que la mayoría de estos errores son el resultado de que LILO no puede leer archivos que han
sido modificados o movidos. Cualquier cambio en LILO que incluya el movimiento o cambio de
archivos debe seguirse por el comando lilo para reinstalar LILO para que cualquiera de los
cambios tenga efecto. Otros medios para arrancar Linux sin LILO se describen a continuación.
410
13.2
Errores de Arranque de LILO
13.2.2
Arranque de un sistema Linux sin LILO
Podría haber algunos casos en los cuales LILO no puede usarse en absoluto para arrancar la
computadora porque ha fallado del todo. Cuando esto ocurre es necesaria otra forma de arrancar el
sistema. Hay unos pocos métodos por medio de los cuales es posible arrancar el sistema sin LILO.
Usar el Sistema de Arranque de Emergencia y usar un Disco de Arranque de Emergencia para
arrancar el sistema en lugar de LILO se tratan en las siguientes dos secciones. No obstante, podría
probarse primero algo más simple. Hay unas pocas opciones enumeradas a continuación que
pueden usarse.
·
·
·
LOADLIN
Kernel "en crudo" en un diskette
LILO en un diskette
Estas opciones se tratan en más detalle en los siguientes párrafos.
LOADLIN
Ésta es una utilidad DOS que puede usarse para arrancar Linux. Esta utilidad usualmente viene
con los CDs de instalación y está ubicada en el directorio dosutils. Para usar LOADLIN use una
partición DOS o un disco de arranque DOS, una copia de LOADLIN.EXE, y una copia del kernel
Linux. Primero arranque DOS y luego tipee LOADLIN VMLINUZ root=/dev/rootdevice ro, donde
VMLINUZes el nombre del kernel y root=/dev/rootdevice es el nombre de la partición raíz como
/dev/hda1.
Kernel "en crudo" en un diskette
Es posible arrancar Linux si el kernel Linux "en crudo" está escrito en un diskette. Si se elige este
método, copie el kernel al diskette usando el comando dd if=vmlinuz of=/dev/fd0, donde
nuevamente vmlinuz es el nombre del kernel. Una vez que el kernel ha sido copiado al diskette,
simplemente inserte el diskette en la unidad y encienda la computadora. Asegúrese de que el BIOS
esté configurado para arrancar desde la disquetera. Hay otro paso necesario para confirmar que
esto funcione. Primero configure el kernel para que sepa la ubicación de la partición raíz. Para
hacerlo use el comando rdev /dev/fd0 /dev/dispositivoraíz, donde /dev/dispositivoraízes el
nombre de la partición raíz. Tenga en cuenta que estos discos parecerán no formateados en DOS o
Windows y no podrán montarse en Linux porque no tienen ningún sistema de archivos.
LILO en un diskette
Éste es uno de los métodos preferidos porque es el más rápido. Es mucho más rápido que usar el
método de LOADLIN o el método del kernel "en crudo" en un diskette porque el kernel aún está en
la computadora. Para poder instalar LILO en un diskette edite el archivo lilo.conf. La línea de
arranque en el archivo deberá cambiarse a boot=/dev/fd0. Después de esto, tipee lilo para que
LILO se reinstale. Tenga en cuenta que esta línea necesitará volver a editarse para instalar LILO
nuevamente en el disco rígido.
Hay algunas reglas generales e información extra que es de ayuda al usar estas técnicas para
arrancar un sistema Linux sin LILO. La técnica de LOADLIN es generalmente considerada como la
más flexible porque permite la creación o modificación de un disco de arranque usando DOS,
usando un kernel por defecto desde un CD de instalación Linux. El método de kernel "en crudo" en
un diskette es una técnica simple porque no requiere ninguna configuración para que sepa dónde
se ubica la partición de arranque. No obstante, si la configuración del sistema cambia
específicamente dónde está ubicada la partición de arranque del sistema, será necesario hacer
modificaciones en el kernel del diskette. Si esto no se hace el sistema no arrancará con la
configuración del disco. Usar el método de LILO en un diskette es el menos útil pero puede ayudar
en algunos casos. Por ejemplo, algunas personas prefieren configurar la partición de arranque para
que arranque en un sistema operativo no Linux. Entonces cuando el sistema necesita arrancarse a
Linux todo lo que necesitan es insertar el diskette que tiene LILO en él. La Figura muestra un
411
ejemplo de la página de configuración de LILO que se presenta al usuario durante la instalación.
Desde esta pantalla un diskette de arranque LILO puede crearse que puede usarse para arrancar
Linux desde LILO usando el diskette.
13.2
Errores de Arranque de LILO
13.2.3
Sistema de arranque de emergencia
Linux proporciona una copia del sistema de emergencia de LILO, que puede usarse para arrancar
Linux en el caso de que el cargador de arranque LILO tenga errores o no esté funcionando. Esto se
conoce como Sistema de Arranque de Emergencia. Para poder usar esta copia de LILO deben
efectuarse cambios en la configuración en lilo.conf. Los pasos a dar para hacer estos cambios son
los siguientes.
·
·
·
Primero, cambie el lugar donde la partición raíz de los discos regulares está montada. Se
recomienda montarla en algún lado del sistema de arranque de emergencia como
/mnt/std. La Figura muestra un ejemplo de la pantalla de configuración de la GUI en la
cual se puede efectuar este procedimiento.
Segundo, asegúrese de que el directorio /boot esté en su propia partición. Móntelo en
lugar de o además de la partición raíz.
Los últimos cambios de configuración que necesitan hacerse son cambiar las imágenes del
kernel y otras opciones de arranque respecto a lo que es normal. Por ejemplo, las opciones
boot y root deberán señalar al disco rígido regular.
Una vez completos estos pasos necesita usarse el comando lilo para volver a cargar LILO. Si todo
se configuró correctamente, el cargador de arranque deberá instalarse a sí mismo normalmente. Es
posible que esto no funcione. Si la versión de LILO que usa el sistema de emergencia es diferente
a la versión que está actualmente instalada en el sistema regular, la instalación de LILO puede no
funcionar. Si esto ocurriera use el método de LOADLIN, que se explica en la sección anterior y
luego reinstale LILO usando las herramientas regulares del sistema.
412
13.2
Errores de Arranque de LILO
13.2.4
Uso de un disco de arranque de emergencia en Linux
Hay algunos otros casos en los cuales un sistema Linux no arrancará. Hay varias razones y errores
que pueden ocasionar que un sistema Linux no arranque, además de problemas de LILO. Por
ejemplo, el archivo /etc/fstab que se usa para mapear particiones al sistema de archivos pueden
estar corruptos. Errores del script de inicio pueden hacer que el sistema se bloquee o se apague en
ocasiones. Otras razones incluyen un fallo en el disco rígido y reemplazo del disco desde un
backup. Todos estos son errores comunes que aparecerán en un sistema Linux de tiempo en
tiempo, y LILO no es responsable. Para sortear estos tipos de problemas y arrancar exitosamente
el sistema obtenga o cree un Disco de Arranque de Emergencia. Un disco de arranque de
emergencia habilitará el sistema para que arranque sin usar ninguna parte de la partición principal.
Los discos de arranque de emergencia pueden ser un único diskette que contenga una cantidad
mínima de archivos del sistema con los cuales arrancar el sistema, o instalaciones Linux completas
que están almacenadas en medios removibles de alta capacidad como CD-ROMs. Un
administrador de sistemas debe saber cómo crear apropiadamente un disco de arranque de
emergencia para que puedan responder a las llamadas de resolución de problemas necesarias.
También es importante saber qué herramientas están en el disco y cómo usarlas para resolver
problemas apropiadamente en un sistema Linux que no puede arrancar.
Búsqueda de un Disco de Emergencia
Hay varias opciones de las cuales escoger en lo que se refiere a buscar un disco de arranque de
emergencia ya preparado para Linux, la mayoría de los cuales están disponibles para descargar de
Internet. Los siguientes discos de arranque de emergencia de Linux son fáciles de usar y a menudo
no requieren configuración para usarlos. Algunos de los discos de arranque de emergencia más
populares disponibles para Linux se enumeran a continuación.
Los Discos de Instalación de Linux
Uno de los lugares más obvios para buscar es en los discos o medios de instalación que se usaron
para instalar el sistema operativo en primera instancia. La mayoría de las distribuciones incluyen un
sistema de disco de arranque de emergencia al que se puede tener acceso como opción al cargar
los medios de instalación. Por ejemplo, al iniciar el programa instalador para cargar Red Hat Linux,
el comando linux rescue se tipearía en el prompt lilo:. Si se usa una distribución diferente,
consulte la documentación relativa a cómo usar el disco de emergencia incluido con los medios de
instalación.
Disco Raíz/de Arranque de Tom
El nombre oficial para esta distribución de disco de emergencia es tomsrtbt, que significa "el
diskette de Tom, que tiene un sistema de archivos raíz y también es booteable". Éste puede
descargarse de Internet y puede entrar en un único diskette. Es un sistema Linux booteable
completo que solamente puede usarse desde la línea de comandos. La GUI no se soporta. Éste
viene en paquetes para DOS también. Para obtener una copia y averiguar más acerca del Disco
Raíz/de Arranque de Tom, diríjase a http://www.toms.net/rb.
413
ZipSlack
Esto está disponible para Slackware Linux. Puede instalarse en una partición pequeña o en una
unidad removible como un disco zip porque los 100 MB de tamaño de este disco de arranque de
emergencia es mayor que la capacidad de un diskette, que tiene solamente 1,4 MB. La ventaja de
tener una versión más grande de Linux que la que está disponible en un único diskette es que es
más fácil de personalizar con herramientas de backup comerciales y controladores para el kernel
personalizados.
Demo Linux
Ésta es una de las mejores utilidades de disco de arranque de emergencia disponibles porque es la
más completa. Es más grande que los 100 MB de ZipSlack y debe quemarse en un CD-R. El
archivo de 650 MB puede descargarse desde la web en http://www.demolinux.org. Ofrece una
versión completa de Linux con la cual trabajar que incluso permite que la X GUI se ejecute en la
mayor parte del hardware de video.
SuSE Evaluation
Ésta es muy similar a Demo Linux en que es de alrededor del mismo tamaño y debe quemarse en
un CD-R. No obstante, ésta es una versión de evaluación de SuSE Linux que puede descargarse
desde la web en http://www.suse.com.
Tenga en cuenta que éstas son solamente algunas de las opciones disponibles para discos de
arranque de emergencia de un sistema Linux. Para averiguar qué otras están disponibles diríjase a
http://www.linux.org/dist/english.html. Esta página y la página web para Raíz/Arranque de Tom
contienen otros vínculos para encontrar distribuciones pequeñas y especializadas para usar en
discos de arranque de emergencia.
Creación de un Disco de Arranque de Emergencia
En su mayor parte, los discos de arranque de emergencia que se mencionan antes serán
suficientes para cualquier propósito. No obstante, hay algunos casos en los cuales será necesario
hacer un disco de arranque de emergencia personalizado. Por ejemplo, si el sistema en el cual se
trabaja contiene hardware que necesita controladores especiales, o usa un sistema de archivos
especial, funciones de networking especiales, o cualquier otra configuración que no se soportaría
normalmente en cualquiera de los discos de arranque de emergencia comunes, necesitarán un
disco de arranque personalizado.
La creación de un disco de arranque de emergencia personalizado puede ser una tarea fácil o difícil
dependiendo de los requisitos del sistema que necesita arrancarse y cómo se enfoca la tarea de
crear el disco. El método más simple y recomendado para crear un disco de arranque de
emergencia personalizado para adaptarse a las necesidades de un sistema informático individual
es modificar uno de los discos de arranque existentes. El disco existente puede modificarse de
modo tal que las funciones especiales que un sistema puede requerir puedan agregarse. El disco
de arranque ZipSlack es una de las mejores opciones a elegir al crear un disco de arranque de
emergencia personalizado. ZipSlack actúa de manera muy semejante a una distribución de Linux
regular, no obstante le faltan algunas funciones como una GUI. ZipSlack también permite a un
usuario recompilar su kernel, agregar cualquier herramienta necesaria, o configurar muchos otros
aspectos para adaptar al sistema Linux que necesita arrancarse. Otra función que hace de ZipSlack
una buena opción es que hay cierto espacio para hacerle adiciones en un disco Zip de 100 MB.
También es posible sacar cualquier programa que no será necesario lo que libera un poco más de
espacio. Otra opción sería usar un disco de Zip de 250 MB para guardar ZipSlack en el cual dejaría
mucho espacio para cualquier programa adicional o cambios de configuración que sea necesario
efectuar.
No se recomienda el uso de ninguna de las otras opciones de discos de arranque de emergencia
para hacer un disco de arranque personalizado por diversas razones. El disco Raíz/de Arranque de
Tom es demasiado pequeño para ello. Con este disco de arranque de emergencia entrando en un
pequeño diskette de 1,4 MB, no hay mucho espacio para agregar nada o hacer ningún cambio.
Otro problema es que porque estas distribuciones son tan pequeñas, muchos de los archivos de
414
programa ya han sido cambiados para optimizarlos para esta pequeña cantidad de espacio. Esto
hace el cambiar o agregar cualquier cosa un proceso muy difícil porque es casi imposible hacerlo
sin exceder el tamaño máximo en el disco. Las distribuciones que pueden quemarse en un CD son
difíciles para crear un disco de emergencia personalizado debido al hecho de que no se pueden
hacer cambios en los archivos de un CD. Para hacer un disco de emergencia personalizado con
una de las distribuciones que se queman en un CD, el contenido debe copiarse en un disco rígido
de un sistema funcional, y luego los cambios deben efectuarse antesde quemar el CD nuevamente.
Herramientas de Recuperación
Independientemente del disco de arranque de emergencia que se use, hay varios tipos de
herramientas de recuperación que deberán incluirse que pueden ayudar en el proceso de
reparación. La siguiente lista de herramientas de recuperación es relativamente estándar y serán
programas de Linux familiares. Tenga en cuenta que en el caso de que el sistema en particular que
se está arrancando con el disco de arranque de emergencia puede haber algún programa especial
instalado o configuración que puede requerir una herramienta de recuperación especial además de
una que se nombre a continuación.
Controladores
Es importante recordar que los controladores para cualquier hardware y sistemas de archivos que
son soportados en el sistema Linux debe incluirse en el disco de arranque de emergencia. Puede
ser difícil incluirlos a todos en una de las distribuciones que encajan en un único diskette porque los
controladores tienden a consumir más espacio en disco que lo que se permite en un diskette. Incluir
controladores para el hardware y los sistemas de archivos soportados es importante porque serán
necesarios para usar o resolver problemas en cualquier pieza de hardware o el sistema de archivos
después de arrancar el sistema con el disco de arranque de emergencia. Esto es particularmente
importante si el sistema tiene adaptadores SCSI y discos rígidos o algún otro hardware inusual.
Un editor de textos
Es importante que alguna clase de editor de textos como vi se incluya para que los archivos de
configuración puedan verse y editarse apropiadamente. Cada distribución de disco de emergencia
deberá incluir un editor de textos y vi es una buena opción porque no es muy grande. Algunas de
las distribuciones más grandes de los discos de arranque de emergencia tienen editores de textos
más grandes de los cuales elegir.
Utilidades de Disco
El disco de arranque de emergencia deberá tener las utilidades de disco necesarias como fdisk,
mkfs, y fsck, que pueden usarse para formatear un disco rígido para poder instalar Linux en él. Las
Figuras , , y muestran ejemplos de estas tres utilidades. Un disco de arranque de emergencia
con estas utilidades puede ser valioso en el caso de un fallo en el sistema de archivos o un
problema en el cual el disco rígido o las particiones necesiten borrarse y prepararse para la
instalación de Linux. La utilidad fsck puede usarse para reparar sistemas de archivos dañados.
415
Software de Backup
Siempre es importante incluir alguna clase de utilidad de software de backup. Si un cambio o
reparación a algunos de los archivos de configuración necesita hacerse podría ser una buena idea
primero hacer un backup. La mayoría de las distribuciones mencionadas antes vienen con algún
tipo de utilidad de backup como tar, restore, cpio, y posiblemente otras. Las páginas man de estas
tres utilidades se muestran en las Figuras , , y . En el caso de que se use un software de
backup diferente, comercial o de terceros será necesario incluirlo en el disco de arranque de
emergencia.
416
Software de Red
Tener software o utilidades de red incluidos en el disco de arranque de emergencia es necesario si
necesita establecerse una conexión de red. Algunas redes tendrán datos almacenados a los que
puede accederse mediante una conexión de red y descargarlos del servidor puede restaurar los
datos. Tanto controladores serán necesarios para el hardware de red que está instalado en el
sistema como para el paquete de cliente o servidor de red.
Una última cosa que es importante mencionar acerca de arrancar un sistema con un disco de
arranque de emergencia es que algunos métodos de disco de recuperación requieren funciones
inusuales para acceder a disco de arranque en sí. Por ejemplo, si se está usando ZipSlack desde
una unidad zip, que está conectada mediante un puerto paralelo, debe arrancarse desde un kernel
almacenado en un diskette de arranque. Ese kernel debe incluir soporte para unidades zip
paralelas.
13.3
Reconocimiento de Errores Comunes
13.3.1
Diversas razones para los problemas de dependencia de los paquetes
Las dependencias de los paquetes se trataron en capítulos anteriores, por lo tanto ya hay una
comprensión del concepto. Cuando un paquete está instalado en un sistema Linux podría haber
otros paquetes que es necesario instalar para que ese paquete en particular funcione
apropiadamente. El paquete de dependencia puede tener ciertos archivos que necesitan estar en
su lugar o puede ejecutar ciertos servicios que necesitan iniciarse antes de que el paquete que ha
de instalarse pueda funcionar. En cualquier caso, este proceso usualmente se ejecuta sin
problemas. Linux a menudo notificará al usuario si está instalando un paquete que tiene
dependencias para poder instalarlas también. Hay algunas veces cuando este proceso no procede
como debiera y ocurren problemas. Usualmente el problema se relaciona con dependencias
insatisfechas o conflictos entre paquetes. Esto es más probable que ocurra al instalar paquetes de
diferentes fabricantes. Como administrador de sistemas, es importante comprender cómo
reconocer estos errores y saber cómo resolverlos apropiadamente.
417
Hay varias razones por las cuales dependencias y conflictos pueden surgir en un sistema Linux con
paquetes RPM, Debian y tarball. Solamente los paquetes RPM y Debian tienen la capacidad para
notificar al usuario sobre problemas de dependencia, tarballs no tiene esta capacidad. Unos pocos
ejemplos de eventos que pueden ocasionar problemas de dependencia y conflictos se enumeran a
continuación.
Librerías o programas de soporte faltantes
Este problema resulta ser uno de los tipos más comunes de problemas que son la causa de la
mayoría de los problemas de dependencia. Las librerías son un tipo de código de soporte que
puede ser usado por muchos programas diferentes en un sistema Linux. Todos los diferentes
programas pueden usar las librerías como si fueran parte del programa en sí. Cuando o si las
librerías faltan, los programas instalados no funcionan. Los paquetes de soporte funcionan de
manera muy similar a las librerías. Por ejemplo, todos los programas de KDE se basan en un
programa de soporte llamado Qt, que es un programa de soporte sobre el cual están construidos
todos los programas de KDE. Si el paquete de soporte Qt no está instalado ningún paquete KDE
puede instalarse usando RPMs.
Librerías o programas de soporte incompatibles
Es importante comprender que hay diferentes versiones de las librerías y programas de soporte
disponibles. Estas diferentes versiones corresponden a las versiones actual y pasadas de
programas instalados. Si una librería o programa de soporte está instalado necesita ser la versión
actual que corresponde a los programas que se están ejecutando en el sistema Linux. Es posible
tener varias versiones de librerías y programas de soporte instalados, para permitir el soporte para
programas con requisitos competentes. Por ejemplo, si un programa requiere Qt 2.2, pero la
versión Qt 1.4 está instalada, entonces es necesario instalar la versión 2.2. Recuerde mantener la
versión 1.4 para que otros programas instalados todavía puedan ejecutarse.
Archivos o funciones duplicados
A veces dos paquetes diferentes incluirán los mismos archivos exactamente o un paquete que está
a punto de ser instalado incluirá archivos o funciones que pueden ya estar instalados en el sistema.
Cuando esto ocurre, puede causar ocasionalmente que los programas no funcionen correctamente.
Encontrar la causa exacta de un error de dependencia de un paquete puede ser difícil. Puede
haber un mensaje de error que se produce que puede ser útil al determinar qué paquete está
ocasionando el problema y a qué categoría pertenece el problema. A veces estos problemas no
causarán ningún daño pero algunos pueden ser muy reales y serios. Tener librerías y programas
de soporte faltantes puede hacer que varios programas fallen y hacer que el sistema no responda.
Al instalar paquetes RPM o Debian, el proceso de encontrar la causa exacta para el problema de
dependencia del paquete puede ser un poco más fácil a causa del mensaje de error que se
produce. Tarballs no produce ningún mensaje de error cuando se ha detectado un error de
dependencia de paquete. El problema solamente se verá cuando el sistema intenta ejecutar el
programa. Por esta razón, el problema puede manifestarse inmediatamente y producir un mensaje
418
de que es incapaz de localizar una librería o archivo específico. Pueden causar que los programas
se caigan o no respondan. Por esta razón, al instalar paquetes tarball, lo mejor es usar la opción
"mantener-archivos-antiguos" [keep-old-files] para que no se sobreescriban archivos existentes.
Usar esta opción permitirá al paquete ser desinstalado y restaurar el sistema a su condición de
funcionamiento original.
13.3
Reconocimiento de Errores Comunes
13.3.2
Soluciones a problemas de dependencia de paquetes
Ahora que los diversos errores que causan los problemas de dependencia de paquetes se han
identificado, es el momento de tratar los pasos a dar para proporcionar soluciones a problemas de
dependencia de paquetes. Hay varias formas de proporcionar una solución, no obstante la correcta
a tomar dependerá de la situación. Repase todas las posibilidades antes de tomar una decisión
acerca de qué enfoque adoptar ya que algunas soluciones funcionan mejor que otras. Algunas de
las soluciones posibles que se tratarán incluyen la instalación forzada, modificación del sistema
para que cumpla con la dependencia, reconstrucción del paquete del problema a partir del código
fuente, y encontrar una versión diferente del paquete problemático.
Instalación Forzada
Tal solución para resolver problemas de dependencia de paquetes es simplemente ignorar el
mensaje de error e instalar el paquete por la fuerza de todos modos. Aunque puede ser arriesgado,
hay casos en que hacerlo es apropiado. Si el error está en un paquete en el cual el usuario ha
compilado manualmente el código fuente, puede forzarse la instalación. Para forzar la instalación
del paquete e ignorar dependencias fallidas con paquetes RPM, use el parámetro – nodeps Para
forzar la instalación sobre otros errores, como conflictos con paquetes RPM existentes, use el
parámetro –forcePor ejemplo, la sintaxis para estos parámetros se muestra en la Figura .
NOTA:
The xxxxxxxx.rpm representa a cualquier paquete rpm.
También es importante notar que estas opciones de parámetros serán levemente diferentes para
los paquetes Debian. Los paquetes Debian están identificados por dpkg en lugar de rpm. Al usar
paquetes Debian use los siguientes parámetros mostrados en la Figura para forzar la instalación
de paquetes.
NOTA:
Donde paquete es el nombre del paquete
Modificación del Sistema
El método correcto y recomendado para proporcionar soluciones a problemas de dependencia es
modificar el sistema para que tenga las dependencias necesarias para ejecutarse apropiadamente.
Por ejemplo, si el paquete que se está instalando requiere una librería o programa de soporte
actualizado entonces la versión actualizada debe instalarse. Si Qt 1.44 está actualmente instalado y
el paquete requiere Qt 2.2 entonces la versión actualizada debe instalarse. Localice la versión
419
actualizada en los CDs de instalación de la distribución si es ahí donde el paquete se está
instalando. El CD de instalación deberá tener librerías y programas de soporte actualizados que los
paquetes requieren para esa distribución. Todo lo que necesita hacerse es instalar las librerías y
programas de soporte desde el CD.
Hay unas pocas precauciones a tener en cuenta al adoptar este enfoque. Preste particular atención
a qué paquetes y modificaciones se están haciendo y asegúrese de que cualquier paquete y/o
actualización que esté instalado esté de hecho pensado para la versión de distribución particular
que se está usando. Por ejemplo, programas que usan librerías y paquetes de soporte para Red
Hat 6 no necesariamente funcionarán con las librerías y paquetes de soporte de Red Hat 7. Un
paquete que contiene actualizaciones para librerías y paquetes de soporte y se instala para una
distribución en particular tendrá determinados requisitos que lo hacen compatible solamente con los
programas de esa distribución específica. Si la distribución A (Red Hat 6) está actualmente en
ejecución, pero se instala una actualización que fue construida para la distribución B (Red Hat 7),
los programas producirán un mensaje de error enunciando los problemas de dependencia que
tienen en términos de los archivos, librerías y paquetes de soporte de la distribución B, cuando
realmente se están ejecutando en la distribución A. Las actualizaciones de la versión apropiada
pueden de hecho no estar disponibles para la distribución A, pero si la versión de la distribución B
de librerías y paquetes de soporte está instalada; puede haber conflictos con los otros paquetes
que ya están instalados en la distribución A. En algunos casos si las actualizaciones apropiadas no
están instaladas para la versión de la distribución correcta, en un principio no habrá problemas. No
obstante, podría haber problemas en el futuro cuando se instalen otros programas o cuando la
distribución particular de Linux que se está usando se actualice. Cuando ése es el caso, las
librerías y paquetes de soporte incorrectos que fueron actualizados ya no serán reconocidos y en
algunos casos ni siquiera se podrán actualizar a la versión de la nueva distribución.
Esto puede parecer un tanto confuso pero es realmente un concepto simple. En otras palabras, si
el sistema va a ser modificado de cualquier manera, como que las librerías y paquetes de soporte
están siendo actualizados, entonces es necesario asegurarse de que las actualizaciones correctas
estén instaladas. Esto significa que si Red Hat 6 se está usando, las actualizaciones para Red Hat
6 son las que deberán usarse y no para otra versión de Red Hat, como Red Hat 7. En el caso de
que las actualizaciones no estén disponibles para la distribución que se está usando, podría ser
una mejor idea simplemente actualizar toda la versión de la distribución. Hacerlo aseguraría que las
actualizaciones necesarias estén instaladas.
Reconstrucción del Paquete Problemático a partir del Código Fuente
En algunos casos puede ser necesario reconstruir el paquete a partir del código fuente si aparecen
mensajes de error de dependencia. No obstante, es importante comprender que las condiciones de
dependencia que resultan de necesitar hacerlo en oposición a otras condiciones de dependencia
en las cuales no sería necesario reconstruir el paquete en sí. Por ejemplo, algunas dependencias
son el resultado de las librerías y paquetes de soporte que están actualmente instaladas en la
computadora, y no de los requisitos de los otros paquetes y software del sistema. Esto a menudo
resulta cuando el software de un sistema Linux se ha recompilado. Cuando el software se
recompila, esto hará que las dependencias para diversos programas cambien. Por lo tanto, es
mucho más fácil reconstruir el paquete a partir del código fuente para sobreponerse a este cambio
que lo que sería intentar instalar por la fuerza nuevos paquetes o modificar el sistema de cualquier
forma.
Es realmente un proceso bastante simple reconstruir un paquete RPM. Para reconstruir un RPM
llame al rpm mediante el comando – rebuild. La sintaxis del comando usado para reconstruir un
paquete RPM es como sigue. Es posible reconstruir tarballs a partir del código fuente, no obstante
es un proceso mucho más difícil. En lugar de tener que ejecutar un comando simple como arriba,
alrededor de diez diferentes comandos tendrán que introducirse para configurar los scripts de
compilación, el software tendrá que recompilarse, y después el software puede instalarse. También
habrá algunos archivos de configuración que tendrá que editarse manualmente. Por esta razón es
mejor no intentar hacer esto con los paquetes tarball. En cualquier caso lea la documentación del
paquete que viene con el mismo para obtener más información acerca del paquete.
420
# rpm – rebuild nombrepaquete-version.src.rpm
nombrepaquete-version.src.rpm es el nombre del RPM que es necesario reconstruir. Este comando
extrae el código fuente y ejecuta cualesquiera comandos sean necesarios para construir un nuevo
paquete o a veces varios paquetes. Dependiendo de la velocidad de la computadora y del tamaño
del paquete que se está reconstruyendo, el proceso para recompilar el paquete puede llevar de
unos segundos a unas horas. Una vez que el proceso está completo, habrá varios RPMs en forma
binaria ubicados en/usr/src/nombredist/RPMS/arch, donde nombredist es el código que
representa la distribución del sistema, como RedHat o OpenLinux. arch representa la arquitectura
de la CPU del sistema, como i386, i586, x86, o ppc. Una vez que estos archivos se han colocado
en/usr/src/nombredist/RPMS/arch, pueden moverse a cualquier ubicación y luego instalarse
como cualquier otro paquete RPM.
Otr