Download Fisica

Document related concepts

Fricción wikipedia , lookup

Velocidad límite wikipedia , lookup

Efecto Coriolis wikipedia , lookup

Fuerza wikipedia , lookup

Movimiento (física) wikipedia , lookup

Transcript
FISICA
Mecánica
1
INTRODUCCIÓN
Mecánica, rama de la física que se ocupa del movimiento de los objetos y de su
respuesta a las fuerzas. Las descripciones modernas del movimiento comienzan con
una definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la
velocidad, la aceleración, la masa y la fuerza. Sin embargo, hasta hace unos 400
años el movimiento se explicaba desde un punto de vista muy distinto. Por ejemplo,
los científicos razonaban —siguiendo las ideas del filósofo y científico griego
Aristóteles— que una bala de cañón cae porque su posición natural está en el suelo;
el Sol, la Luna y las estrellas describen círculos alrededor de la Tierra porque los
cuerpos celestes se mueven por naturaleza en círculos perfectos.
El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores de
su tiempo y empezó a analizar el movimiento a partir de la distancia recorrida desde
un punto de partida y del tiempo transcurrido. Demostró que la velocidad de los
objetos que caen aumenta continuamente durante su caída. Esta aceleración es la
misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la
resistencia del aire (rozamiento). El matemático y físico británico Isaac Newton
mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la aceleración.
Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las
leyes de Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein.
Para las partículas atómicas y subatómicas, las leyes de Newton han sido sustituidas
por la teoría cuántica. Pero para los fenómenos de la vida diaria, las tres leyes del
movimiento de Newton siguen siendo la piedra angular de la dinámica (el estudio de
las causas del cambio en el movimiento).
2
CINEMÁTICA
La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus
causas. La velocidad (la tasa de variación de la posición) se define como la distancia
recorrida dividida entre el intervalo de tiempo. La magnitud de la velocidad se
denomina celeridad, y puede medirse en unidades como kilómetros por hora, metros
por segundo, ... La aceleración se define como la tasa de variación de la velocidad: el
cambio de la velocidad dividido entre el tiempo en que se produce. Por tanto, la
aceleración tiene magnitud, dirección y sentido, y se mide en unidades del tipo
metros por segundo cada segundo.
En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas
matemáticos si el objeto es muy pequeño en relación con las distancias
consideradas. Si el objeto es grande, se emplea un punto llamado centro de masas,
cuyo movimiento puede considerarse característico de todo el objeto. Si el objeto
gira, muchas veces conviene describir su rotación en torno a un eje que pasa por el
centro de masas.
Existen varios tipos especiales de movimiento fáciles de describir. En primer lugar,
aquél en el que la velocidad es constante. En el caso más sencillo, la velocidad podría
ser nula, y la posición no cambiaría en el intervalo de tiempo considerado. Si la
velocidad es constante, la velocidad media (o promedio) es igual a la velocidad en
cualquier instante determinado. Si el tiempo t se mide con un reloj que se pone en
marcha con t = 0, la distancia d recorrida a velocidad constante v será igual al
producto de la velocidad por el tiempo:
d = vt
Otro tipo especial de movimiento es aquél en el que se mantiene constante la
aceleración. Como la velocidad varía, hay que definir la velocidad instantánea, que es
la velocidad en un instante determinado. En el caso de una aceleración a constante,
considerando una velocidad inicial nula (v = 0 en t = 0), la velocidad instantánea
transcurrido el tiempo t será
v = at
La distancia recorrida durante ese tiempo será
d = at2
Esta ecuación muestra una característica importante: la distancia depende del
cuadrado del tiempo (t2, o “t al cuadrado”, es la forma breve de escribir t × t). Un
objeto pesado que cae libremente (sin influencia de la fricción del aire) cerca de la
superficie de la Tierra experimenta una aceleración constante. En este caso, la
aceleración es aproximadamente de 9,8 m/s cada segundo. Al final del primer
segundo, una pelota habría caído 4,9 m y tendría una velocidad de 9,8 m/s. Al final
del siguiente segundo, la pelota habría caído 19,6 m y tendría una velocidad de 19,6
m/s.
El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve
con celeridad constante pero la aceleración forma siempre un ángulo recto con su
velocidad, se desplazará en un círculo. La aceleración está dirigida hacia el centro del
círculo y se denomina aceleración normal o centrípeta (véase Fuerza centrípeta). En
el caso de un objeto que se desplaza a velocidad v en un círculo de radio r, la
aceleración centrípeta es a = v2/r. Otro tipo de movimiento sencillo que se observa
frecuentemente es el de una pelota que se lanza al aire formando un ángulo con la
horizontal. Debido a la gravedad, la pelota experimenta una aceleración constante
dirigida hacia abajo que primero reduce la velocidad vertical hacia arriba que tenía al
principio y después aumenta su velocidad hacia abajo mientras cae hacia el suelo.
Entretanto, la componente horizontal de la velocidad inicial permanece constante (si
se prescinde de la resistencia del aire), lo que hace que la pelota se desplace a
velocidad constante en dirección horizontal hasta que alcanza el suelo. Las
componentes vertical y horizontal del movimiento son independientes, y se pueden
analizar por separado. La trayectoria de la pelota resulta ser una parábola. Véase
Balística.
3
DINÁMICA
Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la
masa. Puede medirse en función de uno de estos dos efectos: una fuerza puede
deformar algo, como un muelle, o acelerar un objeto. El primer efecto puede
utilizarse para calibrar la escala de un muelle, que a su vez puede emplearse para
medir la magnitud de otras fuerzas: cuanto mayor sea la fuerza F, mayor será el
alargamiento del muelle x. En muchos muelles, y dentro de un rango de fuerzas
limitado, es proporcional a la fuerza:
F = kx
donde k es una constante que depende del material y dimensiones del muelle.
4
VECTORES
Si un objeto está en equilibrio, la fuerza total ejercida sobre él debe ser cero. Un
libro colocado sobre una mesa es atraído hacia abajo por la atracción gravitacional
de la Tierra y es empujado hacia arriba por la repulsión molecular de la mesa. La
suma de las fuerzas es cero; el libro está en equilibrio. Para calcular la fuerza total,
hay que sumar las fuerzas como vectores.
5
MOMENTO DE UNA FUERZA
Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan
sobre un objeto deben cancelarse mutuamente, y lo mismo debe ocurrir con las
componentes verticales. Esta condición es necesaria para el equilibrio, pero no es
suficiente. Por ejemplo, si una persona coloca un libro de pie sobre una mesa y lo
empuja igual de fuerte con una mano en un sentido y con la otra en el sentido
opuesto, el libro permanecerá en reposo si las manos están una frente a otra. (El
resultado total es que el libro se comprime). Pero si una mano está cerca de la parte
superior del libro y la otra mano cerca de la parte inferior, el libro caerá sobre la
mesa. Para que haya equilibrio también es necesario que la suma de los momentos
en torno a cualquier eje sea cero.
El momento de una fuerza es el producto de dicha fuerza por la distancia
perpendicular a un determinado eje de giro. Cuando se aplica una fuerza a una
puerta pesada para abrirla, la fuerza se ejerce perpendicularmente a la puerta y a la
máxima distancia de las bisagras. Así se logra un momento máximo. Si se empujara
la puerta con la misma fuerza en un punto situado a medio camino entre el tirador y
las bisagras, la magnitud del momento sería la mitad. Si la fuerza se aplicara de
forma paralela a la puerta (es decir, de canto), el momento sería nulo. Para que un
objeto esté en equilibrio, los momentos dextrógiros (a derechas) en torno a todo eje
deben cancelarse con los momentos levógiros (a izquierdas) en torno a ese eje.
Puede demostrarse que si los momentos se cancelan para un eje determinado, se
cancelan para todos los ejes.
6
LAS TRES LEYES DEL MOVIMIENTO DE NEWTON
Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las
bases de la dinámica.
1
La primera ley
La primera ley de Newton afirma que si la suma vectorial de las fuerzas que actúan
sobre un objeto es cero, el objeto permanecerá en reposo o seguirá moviéndose a
velocidad constante. El que la fuerza ejercida sobre un objeto sea cero no significa
necesariamente que su velocidad sea cero. Si no está sometido a ninguna fuerza
(incluido el rozamiento), un objeto en movimiento seguirá desplazándose a velocidad
constante.
2
La segunda ley
La segunda ley de Newton relaciona la fuerza total y la aceleración. Una fuerza neta
ejercida sobre un objeto lo acelerará, es decir, cambiará su velocidad. La aceleración
será proporcional a la magnitud de la fuerza total y tendrá la misma dirección y
sentido que ésta. La constante de proporcionalidad es la masa m del objeto
F = ma
En el Sistema Internacional de unidades (conocido también como SI), la aceleración
a se mide en metros por segundo cuadrado, la masa m se mide en kilogramos, y la
fuerza F en newtons. Un newton se define como la fuerza necesaria para suministrar
a una masa de 1 kg una aceleración de 1 metro por segundo cada segundo; esta
fuerza es aproximadamente igual al peso de un objeto de 100 gramos.
Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que
uno con menos masa. Lo asombroso es que la masa, que mide la inercia de un
objeto (su resistencia a cambiar la velocidad), también mide la atracción
gravitacional que ejerce sobre otros objetos. Resulta sorprendente, y tiene
consecuencias profundas, que la propiedad inercial y la propiedad gravitacional estén
determinadas por una misma cosa. Este fenómeno supone que es imposible
distinguir si un punto determinado está en un campo gravitatorio o en un sistema de
referencia acelerado. Einstein hizo de esto una de las piedras angulares de su teoría
general de la relatividad, que es la teoría de la gravitación actualmente aceptada.
3
Rozamiento
El rozamiento, generalmente, actúa como una fuerza aplicada en sentido opuesto a
la velocidad de un objeto. En el caso de deslizamiento en seco, cuando no existe
lubricación, la fuerza de rozamiento es casi independiente de la velocidad. La fuerza
de rozamiento tampoco depende del área aparente de contacto entre un objeto y la
superficie sobre la cual se desliza. El área real de contacto —esto es, la superficie en
la que las rugosidades microscópicas del objeto y de la superficie de deslizamiento se
tocan realmente— es relativamente pequeña. Cuando un objeto se mueve por
encima de la superficie de deslizamiento, las minúsculas rugosidades del objeto y la
superficie chocan entre sí, y se necesita fuerza para hacer que se sigan moviendo. El
área real de contacto depende de la fuerza perpendicular entre el objeto y la
superficie de deslizamiento. Frecuentemente, esta fuerza no es sino el peso del
objeto que se desliza. Si se empuja el objeto formando un ángulo con la horizontal,
la componente vertical de la fuerza dirigida hacia abajo se sumará al peso del objeto.
La fuerza de rozamiento es proporcional a la fuerza perpendicular total.
Cuando hay rozamiento, la segunda ley de Newton puede ampliarse a
Sin embargo, cuando un objeto se desplaza a través de un fluido, el valor del
rozamiento depende de la velocidad. En la mayoría de los objetos de tamaño
humano que se mueven en agua o aire (a velocidades menores que la del sonido), la
fricción es proporcional al cuadrado de la velocidad. En ese caso, la segunda ley de
Newton se convierte en
La constante de proporcionalidad k es característica de los dos materiales en
cuestión y depende del área de contacto entre ambas superficies, y de la forma más
o menos aerodinámica del objeto en movimiento.
4
La tercera ley
La tercera ley de Newton afirma que cuando un objeto ejerce una fuerza sobre otro,
este otro objeto ejerce también una fuerza sobre el primero. La fuerza que ejerce el
primer objeto sobre el segundo debe tener la misma magnitud que la fuerza que el
segundo objeto ejerce sobre el primero, pero con sentido opuesto. Por ejemplo, en
una pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño, no sólo
existe la fuerza que el adulto ejerce sobre el niño, sino que el niño ejerce una fuerza
igual pero de sentido opuesto sobre el adulto. Sin embargo, como la masa del adulto
es mayor, su aceleración será menor.
La tercera ley de Newton también implica la conservación del momento lineal, el
producto de la masa por la velocidad. En un sistema aislado, sobre el que no actúan
fuerzas externas, el momento debe ser constante. En el ejemplo del adulto y el niño
en la pista de patinaje, sus velocidades iniciales son cero, por lo que el momento
inicial del sistema es cero. Durante la interacción operan fuerzas internas entre el
adulto y el niño, pero la suma de las fuerzas externas es cero. Por tanto, el momento
del sistema tiene que seguir siendo nulo. Después de que el adulto empuje al niño, el
producto de la masa grande y la velocidad pequeña del adulto debe ser igual al de la
masa pequeña y la velocidad grande del niño. Los momentos respectivos son iguales
en magnitud pero de sentido opuesto, por lo que su suma es cero.
Otra magnitud que se conserva es el momento angular o cinético. El momento
angular de un objeto en rotación depende de su velocidad angular, su masa y su
distancia al eje. Cuando un patinador da vueltas cada vez más rápido sobre el hielo,
prácticamente sin rozamiento, el momento angular se conserva a pesar de que la
velocidad aumenta. Al principio del giro, el patinador tiene los brazos extendidos.
Parte de la masa del patinador tiene por tanto un radio de giro grande. Cuando el
patinador baja los brazos, reduciendo su distancia del eje de rotación, la velocidad
angular debe aumentar para mantener constante el momento angular.
7
ENERGÍA
La magnitud denominada energía enlaza todas las ramas de la física. En el ámbito de
la mecánica, debe suministrarse energía para realizar trabajo; el trabajo se define
como el producto de la fuerza por la distancia que recorre un objeto en la dirección
de la fuerza. Cuando se ejerce una fuerza sobre un objeto pero la fuerza no hace que
el objeto se mueva, no se realiza trabajo. La energía y el trabajo se expresan en las
mismas unidades, como por ejemplo julios o ergios.
Si se realiza trabajo para elevar un objeto a una altura superior, se almacena energía
en forma de energía potencial gravitatoria. Existen muchas otras formas de energía:
energía potencial eléctrica y magnética, energía cinética, energía acumulada en
muelles estirados, gases comprimidos o enlaces moleculares, energía térmica e
incluso la propia masa. En todas las transformaciones entre un tipo de energía y otro
se conserva la energía total. Por ejemplo, si se ejerce trabajo sobre una pelota de
goma para levantarla, se aumenta su energía potencial gravitatoria. Si se deja caer
la pelota, esta energía potencial gravitatoria se convierte en energía cinética. Cuando
la pelota choca contra el suelo, se deforma y se produce fricción entre las moléculas
de su material. Esta fricción se transforma en calor o energía térmica.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Estática
Estática, parte de la física que estudia los cuerpos sobre los que actúan fuerzas y
momentos cuyas resultantes son nulas, de forma que permanecen en reposo o en
movimiento no acelerado. El objeto de la estática es determinar la fuerza resultante
y el momento resultante de todas las fuerzas que actúan sobre un cuerpo para poder
establecer sus condiciones de equilibrio.
Un sistema de fuerzas que actúa sobre un cuerpo puede ser reemplazado por una
fuerza resultante y por un momento resultante que produzcan sobre el cuerpo el
mismo efecto que todas las fuerzas y todos los momentos actuando conjuntamente.
Como la fuerza resultante provoca un movimiento de traslación en el cuerpo y el
momento resultante un movimiento de rotación, para que el cuerpo se encuentre en
equilibrio debe cumplirse, simultáneamente, que la fuerza resultante y el momento
resultante sean nulos. No obstante, equilibrio no es sinónimo de reposo, ya que una
fuerza resultante nula y un momento resultante nulo implican una aceleración lineal
y angular nulas, respectivamente, pero el cuerpo puede encontrarse en reposo o
tener un movimiento rectilíneo y uniforme. Así, un cuerpo está en equilibrio cuando
se encuentra en reposo o cuando se mueve con movimiento rectilíneo y uniforme.
Véase Mecánica.
Esta condición de equilibrio implica que una fuerza aislada aplicada sobre un cuerpo
no puede producir por sí sola equilibrio y que, en un cuerpo en equilibrio, cada fuerza
es igual y opuesta a la resultante de todas las demás. Así, dos fuerzas iguales y
opuestas, actuando sobre la misma línea de acción, sí producen equilibrio.
El equilibrio puede ser de tres clases: estable, inestable e indiferente. Si un cuerpo
está suspendido, el equilibrio será estable si el centro de gravedad está por debajo
del punto de suspensión; inestable si está por encima, e indiferente si coinciden
ambos puntos. Si un cuerpo está apoyado, el equilibrio será estable cuando la
vertical que pasa por el centro de gravedad caiga dentro de su base de sustentación;
inestable cuando pase por el límite de dicha base, e indiferente cuando la base de
sustentación sea tal que la vertical del centro de gravedad pase siempre por ella.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Momento lineal
Momento lineal o Cantidad de movimiento, en física, cantidad fundamental que
caracteriza el movimiento de cualquier objeto (véase Mecánica). Es el producto de la
masa de un cuerpo en movimiento y de su velocidad lineal. El momento es una
cantidad vectorial, lo que significa que tiene magnitud, dirección y sentido. El
momento lineal total de un sistema constituido por una serie de objetos es la suma
vectorial de los momentos de cada objeto individual. En un sistema aislado, el
momento total permanece constante a lo largo del tiempo; es lo que se llama
conservación del momento lineal. Por ejemplo, cuando un jugador de tenis golpea
una pelota, el momento lineal de la raqueta justo antes de golpear la bola más el
momento de la pelota en ese instante es igual al momento de la raqueta
inmediatamente después de golpear la bola más el momento de la pelota golpeada.
En otro ejemplo, imaginemos a un nadador que salta desde un bote inmóvil que flota
sobre el agua. Antes de saltar, el bote y el nadador no se mueven, por lo que el
momento lineal total es cero. Al saltar, el nadador adquiere momento lineal hacia
delante, y al mismo tiempo el bote se mueve hacia atrás con un momento igual en
magnitud y dirección pero sentido contrario; el momento total del sistema formado
por el nadador y el bote sigue siendo nulo.
La física actual considera la conservación del momento como una ley universal, que
se cumple incluso en situaciones extremas donde las teorías clásicas de la física no
son válidas. En particular, la conservación del momento lineal se cumple en la teoría
cuántica, que describe los fenómenos atómicos y nucleares, y en la relatividad, que
se emplea cuando los sistemas se desplazan a velocidades próximas a la de la luz.
Según la segunda ley del movimiento de Newton —llamada así en honor al
astrónomo, matemático y físico británico Isaac Newton—, la fuerza que actúa sobre
un cuerpo en movimiento debe ser igual al cambio del momento lineal por unidad de
tiempo. Otra forma de expresar la segunda ley de Newton es decir que el impulso —
esto es, el producto de la fuerza por el tiempo durante el que actúa sobre un
cuerpo— equivale al cambio del momento lineal del cuerpo.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Trabajo (física)
Trabajo (física), el producto de una fuerza aplicada sobre un cuerpo y del
desplazamiento del cuerpo en la dirección de esta fuerza. Mientras se realiza trabajo
sobre el cuerpo, se produce una transferencia de energía al mismo, por lo que puede
decirse que el trabajo es energía en movimiento. Las unidades de trabajo son las
mismas que las de energía. Cuando se levanta un objeto desde el suelo hasta la
superficie de una mesa, por ejemplo, se realiza trabajo al tener que vencer la fuerza
de la gravedad, dirigida hacia abajo; la energía comunicada al cuerpo por este
trabajo aumenta su energía potencial. También se realiza trabajo cuando una fuerza
aumenta la velocidad de un cuerpo, como ocurre por ejemplo en la aceleración de un
avión por el empuje de sus reactores. La fuerza puede no ser mecánica, como ocurre
en el levantamiento de un cuerpo o en la aceleración de un avión de reacción;
también puede ser una fuerza electrostática, electrodinámica o de tensión superficial
(véase Electricidad). Por otra parte, si una fuerza constante no produce movimiento,
no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo extendido no
implica trabajo alguno sobre el libro, independientemente del esfuerzo necesario.
La unidad de trabajo en el Sistema Internacional de Unidades es el julio, que se
define como el trabajo realizado por una fuerza de 1 newton a lo largo de un metro.
El trabajo realizado por unidad de tiempo se conoce como potencia. La potencia
correspondiente a un julio por segundo es un vatio. Véase Caballo de vapor.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Energía
Energía, capacidad de un sistema físico para realizar trabajo. La materia posee
energía como resultado de su movimiento o de su posición en relación con las
fuerzas que actúan sobre ella. La radiación electromagnética posee energía que
depende de su frecuencia y, por tanto, de su longitud de onda. Esta energía se
comunica a la materia cuando absorbe radiación y se recibe de la materia cuando
emite radiación. La energía asociada al movimiento se conoce como energía cinética,
mientras que la relacionada con la posición es la energía potencial. Por ejemplo, un
péndulo que oscila tiene una energía potencial máxima en los extremos de su
recorrido; en todas las posiciones intermedias tiene energía cinética y potencial en
proporciones diversas. La energía se manifiesta en varias formas, entre ellas la
energía mecánica (véase Mecánica), térmica (véase Termodinámica), química (véase
Reacción química), eléctrica (véase Electricidad), radiante (véase Radiación) o
atómica (véase Energía nuclear). Todas las formas de energía pueden convertirse en
otras formas mediante los procesos adecuados. En el proceso de transformación
puede perderse o ganarse una forma de energía, pero la suma total permanece
constante.
Un peso suspendido de una cuerda tiene energía potencial debido a su posición,
puesto que puede realizar trabajo al caer. Una batería eléctrica tiene energía
potencial en forma química. Un trozo de magnesio también tiene energía potencial
en forma química, que se transforma en calor y luz si se inflama. Al disparar un fusil,
la energía potencial de la pólvora se transforma en la energía cinética del proyectil.
La energía cinética del rotor de una dinamo o alternador se convierte en energía
eléctrica mediante la inducción electromagnética. Esta energía eléctrica puede a su
vez almacenarse como energía potencial de las cargas eléctricas en un condensador
o una batería, disiparse en forma de calor o emplearse para realizar trabajo en un
dispositivo eléctrico. Todas las formas de energía tienden a transformarse en calor,
que es la forma más degradada de la energía. En los dispositivos mecánicos la
energía no empleada para realizar trabajo útil se disipa como calor de rozamiento, y
las pérdidas de los circuitos eléctricos se producen fundamentalmente en forma de
calor.
Las observaciones empíricas del siglo XIX llevaron a la conclusión de que aunque la
energía puede transformarse no se puede crear ni destruir. Este concepto, conocido
como principio de conservación de la energía, constituye uno de los principios básicos
de la mecánica clásica. Al igual que el principio de conservación de la materia, sólo
se cumple en fenómenos que implican velocidades bajas en comparación con la
velocidad de la luz. Cuando las velocidades se empiezan a aproximar a la de la luz,
como ocurre en las reacciones nucleares, la materia puede transformarse en energía
y viceversa (véase Relatividad). En la física moderna se unifican ambos conceptos, la
conservación de la energía y de la masa.
Veáse también Bioenergética.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Rozamiento
Rozamiento, en mecánica, resistencia al deslizamiento, rodadura o flujo de un cuerpo
en relación a otro con el que está en contacto.
En todos los sólidos, las moléculas presentan rozamiento interno. Esta forma de
rozamiento es la fuerza que hace que cualquier objeto oscilante, como una cuerda de
piano o un diapasón, deje de vibrar. El rozamiento interno en los líquidos y gases se
denomina viscosidad.
El rozamiento externo puede ser de dos clases: de deslizamiento o de rodadura. En
el rozamiento de deslizamiento, la resistencia es causada por la interferencia de
irregularidades en las superficies de ambos cuerpos. En el rozamiento de rodadura,
la resistencia es provocada por la interferencia de pequeñas deformaciones o
hendiduras formadas al rodar una superficie sobre otra. En ambas formas de
rozamiento, la atracción molecular entre las dos superficies produce cierta
resistencia. En los dos casos, la fuerza de rozamiento es directamente proporcional a
la fuerza que comprime un objeto contra el otro. El rozamiento entre dos superficies
se mide por el coeficiente de fricción, que es el cociente entre la fuerza necesaria
para mover dos superficies en contacto mutuo y la fuerza que presiona una
superficie contra otra. Si un cuerpo de masa 25 kg está situado sobre una superficie
plana y hace falta una fuerza equivalente al peso de una masa de 5 kg para moverla
sobre la superficie, el coeficiente de rozamiento entre el cuerpo y la superficie es de
5 dividido entre 25, es decir, 0,2. El coeficiente de rozamiento entre dos superficies
metálicas bien engrasadas varía aproximadamente entre 0,01 y 0,05, y entre un
rodamiento esférico y el aro en el que gira es de alrededor de 0,002. El rozamiento
entre dos objetos es máximo justo antes de empezar a moverse uno respecto a otro,
y es menor cuando están en movimiento. El valor máximo del rozamiento se
denomina rozamiento estático o rozamiento en reposo, y el valor del rozamiento
entre objetos que se mueven se llama rozamiento cinético o rozamiento en
movimiento. El deslizamiento de dos cuerpos en contacto es discontinuo y puede
considerarse que el rozamiento cinético está producido por una serie de episodios de
rozamiento estático.
El ángulo de rozamiento es el ángulo que hay que inclinar una superficie para que un
objeto situado sobre ella comience a deslizarse hacia abajo. Este ángulo mide la
eficacia de la fuerza de rozamiento para oponerse a la fuerza de la gravedad, que
tiende a deslizar el objeto.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Momento de inercia
Momento de inercia, resistencia que un cuerpo en rotación opone al cambio de su
velocidad de giro. A veces se denomina inercia rotacional. El momento de inercia
desempeña en la rotación un papel equivalente al de la masa en el movimiento
lineal. Por ejemplo, si una catapulta lanza una piedra pequeña y una grande
aplicando la misma fuerza a cada una, la piedra pequeña se acelerará mucho más
que la grande. De modo similar, si se aplica un mismo par de fuerzas ( véase
Momento de una fuerza) a una rueda con un momento de inercia pequeño y a otra
con un momento de inercia grande, la velocidad de giro de la primera rueda
aumentará mucho más rápidamente que la de la segunda.
El momento de inercia de un objeto depende de su masa y de la distancia de la masa
al eje de rotación. Por ejemplo, un volante de 1 kg con la mayoría de su masa
cercana al eje tendrá un momento de inercia menor que otro volante de 1 kg con la
mayoría de la masa cercana al borde exterior.
El momento de inercia de un cuerpo no es una cantidad única y fija. Si se rota el
objeto en torno a un eje distinto, en general tendrá un momento de inercia diferente,
puesto que la distribución de su masa en relación al nuevo eje es normalmente
distinta.
Las leyes del movimiento de los objetos en rotación son equivalentes a las leyes del
movimiento de los objetos que se mueven linealmente (el momento de inercia
sustituye a la masa, la velocidad angular a la velocidad lineal, ...).
Véase Giróscopo; Mecánica.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Momento angular
Momento angular, cantidad fundamental que posee un cuerpo en virtud de su
rotación, y que es esencial para la descripción de su movimiento. Esta magnitud es
análoga al momento lineal o cantidad de movimiento.
El momento lineal de un cuerpo en movimiento viene dado por la expresión:
momento lineal = masa × velocidad
Se define el momento angular de una partícula como:
momento angular = momento lineal × distancia al eje de giro
El momento angular de un sistema de partículas o de un sólido rígido se obtiene
sumando los valores de todas las partículas de las que está formado.
Considérese el pequeño objeto de masa m de la figura, que gira alrededor de un
punto situado a una distancia r de él, con una velocidad angular ω. (La velocidad
angular es la velocidad de rotación expresada en radianes por segundo.) La
velocidad lineal del objeto es ωr, y su momento lineal es mωr. El momento angular
de una partícula es mωr × r o mωr2. El momento angular de un objeto extenso,
como el de la figura, es la suma de todos los valores m1ωr12 + m2ωr22 +... Esto se
escribe matemáticamente como Σmiωri2, para todos los valores de i. Como todas las
partículas giran con la misma velocidad angular ω, esta expresión se puede escribir
así:
momento angular = (Σmiri 2) × ω
que a su vez se puede expresar como:
momento angular = Iω
donde I = Σmiri
2
recibe el nombre de momento de inercia del cuerpo alrededor de
un determinado eje de rotación. El momento de inercia está relacionado con la masa
del cuerpo y la distancia de sus diferentes partes al eje de rotación.
Al igual que existe un principio de conservación para el momento lineal, existe un
principio de conservación del momento angular. Este principio establece que si la
resultante de los momentos de las fuerzas que actúan sobre el cuerpo es nula, el
momento angular permanece constante. Esto se manifiesta en la práctica cuando,
por ejemplo, un satélite que está girando es transportado a bordo de un laboratorio
espacial y su giro se detiene. Su momento angular no se desvanece: es transferido al
laboratorio que, por tanto, comienza a girar. Esto sólo se puede evitar aplicando un
momento externo, producido por el encendido de los motores de propulsión.
Véase también Mecánica.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Rotación
Rotación, movimiento que obliga a todos los puntos de un sólido rígido a describir
arcos de igual amplitud pertenecientes a circunferencias cuyos centros se hallan en
una misma recta o eje de giro, que puede ocupar cualquier posición en el espacio.
Para estudiar la dinámica de los cuerpos en rotación se introduce el concepto de
sólido rígido o cuerpo formado por un conjunto de puntos materiales cuyas distancias
mutuas permanecen invariables. Un sólido rígido está animado de un movimiento de
rotación cuando se mueve ligado a dos puntos fijos que pueden ser interiores o
exteriores a él. La línea que une dichos puntos fijos es el eje de giro, y los puntos de
un sólido en su movimiento describen circunferencias en un plano perpendicular al
eje de giro y cuyos centros se encuentran sobre dicho eje.
Los principios fundamentales de la dinámica de rotación pueden resumirse así:
1. Para que se produzca una rotación tiene que actuar un par de fuerzas. Éste está
constituido por dos fuerzas iguales, paralelas y de sentidos opuestos, cuyos puntos
de aplicación están separados una distancia r, llamada brazo del par. La magnitud
que caracteriza un par de fuerzas es el momento del par de fuerzas, M, que es un
vector perpendicular al plano del par, de módulo igual al producto de la magnitud
común de las fuerzas por la distancia r, y cuyo sentido está ligado al sentido de
rotación del par.
Un par de fuerzas puede equilibrarse por otro par que tenga momento de igual
módulo, pero de sentido opuesto al del primero. Nunca una fuerza única puede
sustituir, ni equilibrar, a un par de fuerzas.
2. La relación que existe entre el momento del par de fuerzas aplicado al cuerpo, M,
y la aceleración angular que le produce, , recibe el nombre de momento de inercia,
I, de dicho cuerpo respecto al eje de giro considerado:
M = I·
Los ejes principales de inercia son aquellos ejes que tienen la propiedad de que
cuando un sólido rota alrededor de alguno de ellos, su momento angular
correspondiente está dirigido según ese eje. En todo sólido existen al menos tres
ejes principales de inercia perpendiculares mutuamente.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Gravitación
1
INTRODUCCIÓN
Gravitación, propiedad de atracción mutua que poseen todos los objetos compuestos
de materia. A veces se utiliza como sinónimo el término gravedad, aunque
estrictamente este último sólo se refiere a la fuerza gravitacional entre la Tierra y los
objetos situados en su superficie o cerca de ella. La gravitación es una de las cuatro
fuerzas básicas que controlan las interacciones de la materia; las otras tres son las
fuerzas nucleares débil y fuerte, y la fuerza electromagnética (véase Fuerzas
fundamentales; Física). Hasta ahora no han tenido éxito los intentos de englobar
todas las fuerzas en una teoría de unificación (véase Teoría del campo unificado), ni
los intentos de detectar las ondas gravitacionales que, según sugiere la teoría de la
relatividad, podrían observarse cuando se perturba el campo gravitacional de un
objeto de gran masa.
La ley de la gravitación, formulada por vez primera por el físico británico Isaac
Newton en 1684, afirma que la atracción gravitatoria entre dos cuerpos es
directamente proporcional al producto de las masas de ambos cuerpos e
inversamente proporcional al cuadrado de la distancia entre ellos. En forma
algebraica, la ley se expresa como
donde F es la fuerza gravitatoria, m1 y m2 son las masas de los dos cuerpos, d es la
distancia entre los mismos y G es la constante gravitatoria. El físico británico Henry
Cavendish fue el primero en medir el valor de esta constante en 1798, mediante una
balanza de torsión. El valor más preciso obtenido hasta la fecha para la constante es
de 0,0000000000667 newtons-metro cuadrado por kilogramo cuadrado (6,67 × 10-11
N m2 kg-2). La fuerza gravitatoria entre dos cuerpos esféricos de un kilogramo de
masa cada uno y separados por una distancia de un metro es, por tanto, de
0,0000000000667 newtons. Esta fuerza es extremadamente pequeña: es igual al
peso en la superficie de la Tierra de un objeto de aproximadamente
1/150.000.000.000 kilogramos.
2
EFECTO DE LA ROTACIÓN
La fuerza de la gravedad que experimenta un objeto no es la misma en todos los
lugares de la superficie terrestre, principalmente debido a la rotación de la Tierra. La
fuerza de la gravedad que se mide es en realidad una combinación de la fuerza
gravitatoria debida a la atracción terrestre y una fuerza centrífuga opuesta debida a
la rotación de la Tierra (véase Fuerza centrífuga). En el ecuador, la fuerza centrífuga
es relativamente elevada, lo que hace que la gravedad que se mide sea
relativamente baja; en los polos, la fuerza centrífuga es nula, con lo que la gravedad
que se mide es relativamente elevada. En el uso corriente, el término fuerza de la
gravedad significa en realidad una combinación de las fuerzas gravitatoria y
centrífuga.
3
ACELERACIÓN
La gravedad suele medirse de acuerdo a la aceleración que proporciona a un objeto
en la superficie de la Tierra. En el ecuador, la aceleración de la gravedad es de
9,7799 metros por segundo cada segundo, mientras que en los polos es superior a
9,83 metros por segundo cada segundo. El valor que suele aceptarse
internacionalmente para la aceleración de la gravedad a la hora de hacer cálculos es
de 9,80665 metros por segundo cada segundo. Por tanto, si no consideramos la
resistencia del aire, un cuerpo que caiga libremente aumentará cada segundo su
velocidad en 9,80665 metros por segundo. La ausencia aparente de gravedad
durante los vuelos espaciales se conoce como gravedad cero o microgravedad.
Veáse también Astronáutica; Mecánica; Órbita.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Caída libre (física)
Caída libre (física), movimiento, determinado exclusivamente por fuerzas
gravitatorias, que adquieren los cuerpos al caer, partiendo del reposo, hacia la
superficie de la Tierra y sin estar impedidos por un medio que pudiera producir una
fuerza de fricción o de empuje. Algunos ejemplos son el movimiento de la Luna
alrededor de la Tierra o la caída de un objeto a la superficie terrestre. Véase
Gravitación.
En el vacío todos los cuerpos, con independencia de su forma o de su masa, caen
con idéntica aceleración en un lugar determinado, próximo a la superficie terrestre.
El movimiento de caída libre es un movimiento uniformemente acelerado, es decir, la
aceleración instantánea es la misma en todos los puntos del recorrido y coincide con
la aceleración media, y esta aceleración es la aceleración de la gravedad g =
9,8 m/s2. Como la velocidad inicial en el movimiento de caída libre es nula, las
ecuaciones de la velocidad y el espacio recorrido en función del tiempo se pueden
escribir así:
v = g·t
y = ½·g·t2
Galileo fue el primero en demostrar experimentalmente que, si se desprecia la
resistencia que ofrece el aire, todos los cuerpos caen hacia la Tierra con la misma
aceleración.
Véase también Mecánica.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Mecánica de fluidos
1
INTRODUCCIÓN
Mecánica de fluidos, parte de la física que se ocupa de la acción de los fluidos en
reposo o en movimiento, así como de las aplicaciones y mecanismos de ingeniería
que utilizan fluidos. La mecánica de fluidos es fundamental en campos tan diversos
como la aeronáutica (véase Avión), la ingeniería química, civil e industrial, la
meteorología, las construcciones navales y la oceanografía.
La mecánica de fluidos puede subdividirse en dos campos principales: la estática de
fluidos, o hidrostática, que se ocupa de los fluidos en reposo, y la dinámica de
fluidos, que trata de los fluidos en movimiento. El término de hidrodinámica se aplica
al flujo de líquidos o al flujo de los gases a baja velocidad, en el que puede
considerarse que el gas es esencialmente incompresible. La aerodinámica, o
dinámica de gases, se ocupa del comportamiento de los gases cuando los cambios de
velocidad y presión son lo suficientemente grandes para que sea necesario incluir los
efectos de la compresibilidad.
Entre las aplicaciones de la mecánica de fluidos están la propulsión a chorro, las
turbinas, los compresores y las bombas (véase Aire comprimido). La hidráulica
estudia la utilización en ingeniería de la presión del agua o del aceite.
2
ESTÁTICA DE FLUIDOS O HIDROSTÁTICA
Una característica fundamental de cualquier fluido en reposo es que la fuerza
ejercida sobre cualquier partícula del fluido es la misma en todas direcciones. Si las
fuerzas fueran desiguales, la partícula se desplazaría en la dirección de la fuerza
resultante. De ello se deduce que la fuerza por unidad de superficie —la presión—
que el fluido ejerce contra las paredes del recipiente que lo contiene, sea cual sea su
forma, es perpendicular a la pared en cada punto. Si la presión no fuera
perpendicular, la fuerza tendría una componente tangencial no equilibrada y el fluido
se movería a lo largo de la pared.
Este concepto fue formulado por primera vez en una forma un poco más amplia por
el matemático y filósofo francés Blaise Pascal en 1647, y se conoce como principio de
Pascal. Dicho principio, que tiene aplicaciones muy importantes en hidráulica, afirma
que la presión aplicada sobre un fluido contenido en un recipiente se transmite por
igual en todas direcciones y a todas las partes del recipiente, siempre que se puedan
despreciar las diferencias de presión debidas al peso del fluido y a la profundidad.
Cuando la gravedad es la única fuerza que actúa sobre un líquido contenido en un
recipiente abierto, la presión en cualquier punto del líquido es directamente
proporcional al peso de la columna vertical de dicho líquido situada sobre ese punto.
La presión es a su vez proporcional a la profundidad del punto con respecto a la
superficie, y es independiente del tamaño o forma del recipiente. Así, la presión en el
fondo de una tubería vertical llena de agua de 1 cm de diámetro y 15 m de altura es
la misma que en el fondo de un lago de 15 m de profundidad. De igual forma, si una
tubería de 30 m de longitud se llena de agua y se inclina de modo que la parte
superior esté sólo a 15 m en vertical por encima del fondo, el agua ejercerá la misma
presión sobre el fondo que en los casos anteriores, aunque la distancia a lo largo de
la tubería sea mucho mayor que la altura de la tubería vertical. Veamos otro
ejemplo: la masa de una columna de agua dulce de 30 cm de altura y una sección
transversal de 6,5 cm2 es de 195 g, y la fuerza ejercida en el fondo será el peso
correspondiente a esa masa. Una columna de la misma altura pero con un diámetro
12 veces superior tendrá un volumen 144 veces mayor, y pesará 144 veces más,
pero la presión, que es la fuerza por unidad de superficie, seguirá siendo la misma,
puesto que la superficie también será 144 veces mayor. La presión en el fondo de
una columna de mercurio de la misma altura será 13,6 veces superior, ya que el
mercurio tiene una densidad 13,6 veces superior a la del agua. Veáse también
Atmósfera; Barómetro; Capilaridad.
El segundo principio importante de la estática de fluidos fue descubierto por el
matemático y filósofo griego Arquímedes. El principio de Arquímedes afirma que todo
cuerpo sumergido en un fluido experimenta una fuerza hacia arriba igual al peso del
volumen de fluido desplazado por dicho cuerpo. Esto explica por qué flota un barco
muy cargado; el peso del agua desplazada por el barco equivale a la fuerza hacia
arriba que mantiene el barco a flote.
El punto sobre el que puede considerarse que actúan todas las fuerzas que producen
el efecto de flotación se llama centro de flotación, y corresponde al centro de
gravedad del fluido desplazado. El centro de flotación de un cuerpo que flota está
situado exactamente encima de su centro de gravedad. Cuanto mayor sea la
distancia entre ambos, mayor es la estabilidad del cuerpo. Véase Estabilidad.
El principio de Arquímedes permite determinar la densidad de un objeto cuya forma
es tan irregular que su volumen no puede medirse directamente. Si el objeto se pesa
primero en el aire y luego en el agua, la diferencia de peso será igual al peso del
volumen de agua desplazado, y este volumen es igual al volumen del objeto, si éste
está totalmente sumergido. Así puede determinarse fácilmente la densidad del objeto
(masa dividida por volumen). Si se requiere una precisión muy elevada, también hay
que tener en cuenta el peso del aire desplazado para obtener el volumen y la
densidad correctos.
3
DINÁMICA DE FLUIDOS O HIDRODINÁMICA
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en
movimiento; estas leyes son enormemente complejas, y aunque la hidrodinámica
tiene una importancia práctica mayor que la hidrostática, sólo podemos tratar aquí
algunos conceptos básicos.
El interés por la dinámica de fluidos se remonta a las aplicaciones más antiguas de
los fluidos en ingeniería. Arquímedes realizó una de las primeras contribuciones con
la invención, que se le atribuye tradicionalmente, del tornillo sin fin. La acción
impulsora del tornillo de Arquímedes es similar a la de la pieza semejante a un
sacacorchos que tienen las picadoras de carne manuales. Los romanos desarrollaron
otras máquinas y mecanismos hidráulicos; no sólo empleaban el tornillo de
Arquímedes para bombear agua en agricultura y minería, sino que también
construyeron extensos sistemas de acueductos, algunos de los cuales todavía
funcionan. En el siglo I a.C., el arquitecto e ingeniero romano Vitrubio inventó la
rueda hidráulica horizontal, con lo que revolucionó la técnica de moler grano.
A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se
comprendía la teoría básica, por lo que su desarrollo se vio frenado. Después de
Arquímedes pasaron más de 1.800 años antes de que se produjera el siguiente
avance científico significativo, debido al matemático y físico italiano Evangelista
Torricelli, que inventó el barómetro en 1643 y formuló el teorema de Torricelli, que
relaciona la velocidad de salida de un líquido a través de un orificio de un recipiente,
con la altura del líquido situado por encima de dicho agujero. El siguiente gran
avance en el desarrollo de la mecánica de fluidos tubo que esperar a la formulación
de las leyes del movimiento por el matemático y físico inglés Isaac Newton. Estas
leyes fueron aplicadas por primera vez a los fluidos por el matemático suizo
Leonhard Euler, quien dedujo las ecuaciones básicas para un fluido sin rozamiento
(no viscoso).
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo
pueden expresarse de forma relativamente sencilla si se supone que el fluido es
incompresible e ideal, es decir, si se pueden despreciar los efectos del rozamiento y
la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales
en movimiento, los resultados de dicho análisis sólo pueden servir como estimación
para flujos en los que los efectos de la viscosidad son pequeños.
1
Flujos incompresibles y sin rozamiento
Estos flujos cumplen el llamado teorema de Bernoulli, enunciado por el matemático y
científico suizo Daniel Bernoulli. El teorema afirma que la energía mecánica total de
un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una
línea de corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre
son paralelas a la dirección del flujo en cada punto, y en el caso de flujo uniforme
coinciden con la trayectoria de las partículas individuales de fluido. El teorema de
Bernoulli implica una relación entre los efectos de la presión, la velocidad y la
gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este
principio es importante para la medida de flujos, y también puede emplearse para
predecir la fuerza de sustentación de un ala en vuelo.
2
Flujos viscosos: movimiento laminar y turbulento
Los primeros experimentos cuidadosamente documentados del rozamiento en flujos
de baja velocidad a través de tuberías fueron realizados independientemente en
1839 por el fisiólogo francés Jean Louis Marie Poiseuille, que estaba interesado por
las características del flujo de la sangre, y en 1840 por el ingeniero hidráulico alemán
Gotthilf Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la
viscosidad en las ecuaciones matemáticas se debió al ingeniero francés Claude Louis
Marie Navier en 1827 e, independientemente, al matemático británico George Gabriel
Stokes, quien en 1845 perfeccionó las ecuaciones básicas para los fluidos viscosos
incompresibles. Actualmente se las conoce como ecuaciones de Navier-Stokes, y son
tan complejas que sólo se pueden aplicar a flujos sencillos. Uno de ellos es el de un
fluido real que circula a través de una tubería recta. El teorema de Bernoulli no se
puede aplicar aquí, porque parte de la energía mecánica total se disipa como
consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo
de la tubería. Las ecuaciones sugieren que, dados una tubería y un fluido
determinados, esta caída de presión debería ser proporcional a la velocidad de flujo.
Los experimentos realizados por primera vez a mediados del siglo XIX demostraron
que esto sólo era cierto para velocidades bajas; para velocidades mayores, la caída
de presión era más bien proporcional al cuadrado de la velocidad. Este problema no
se resolvió hasta 1883, cuando el ingeniero británico Osborne Reynolds demostró la
existencia de dos tipos de flujo viscoso en tuberías. A velocidades bajas, las
partículas del fluido siguen las líneas de corriente (flujo laminar), y los resultados
experimentales coinciden con las predicciones analíticas. A velocidades más
elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo
turbulento), en una forma que ni siquiera en la actualidad se puede predecir
completamente. Reynolds también determinó que la transición del flujo laminar al
turbulento era función de un único parámetro, que desde entonces se conoce como
número de Reynolds. Si el número de Reynolds —que carece de dimensiones y es el
producto de la velocidad, la densidad del fluido y el diámetro de la tubería dividido
entre la viscosidad del fluido— es menor de 2.100, el flujo a través de la tubería es
siempre laminar; cuando los valores son más elevados suele ser turbulento. El
concepto de número de Reynolds es esencial para gran parte de la moderna
mecánica de fluidos.
Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las
predicciones calculadas, y su análisis depende de una combinación de datos
experimentales y modelos matemáticos; gran parte de la investigación moderna en
mecánica de fluidos está dedicada a una mejor formulación de la turbulencia. Puede
observarse la transición del flujo laminar al turbulento y la complejidad del flujo
turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al
principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al
cabo de cierta distancia se hace inestable y se forma un sistema de remolinos
entrelazados.
3
Flujos de la capa límite
Antes de 1860, aproximadamente, el interés de la ingeniería por la mecánica de
fluidos se limitaba casi exclusivamente al flujo del agua. El desarrollo de la industria
química durante la última parte del siglo XIX dirigió la atención a otros líquidos y a
los gases. El interés por la aerodinámica comenzó con los estudios del ingeniero
aeronáutico alemán Otto Lilienthal en la última década del siglo XIX, y produjo
avances importantes tras el primer vuelo con motor logrado por los inventores
estadounidenses Orville y Wilbur Wright en 1903.
La complejidad de los flujos viscosos, y en particular de los flujos turbulentos,
restringió en gran medida los avances en la dinámica de fluidos hasta que el
ingeniero alemán Ludwig Prandtl observó en 1904 que muchos flujos pueden
separarse en dos regiones principales. La región próxima a la superficie está formada
por una delgada capa límite donde se concentran los efectos viscosos y en la que
puede simplificarse mucho el modelo matemático. Fuera de esta capa límite, se
pueden despreciar los efectos de la viscosidad, y pueden emplearse las ecuaciones
matemáticas más sencillas para flujos no viscosos. La teoría de la capa límite ha
hecho posible gran parte del desarrollo de las alas de los aviones modernos y del
diseño de turbinas de gas y compresores. El modelo de la capa límite no sólo
permitió una formulación mucho más simplificada de las ecuaciones de Navier-Stokes
en la región próxima a la superficie del cuerpo, sino que llevó a nuevos avances en la
teoría del flujo de fluidos no viscosos, que pueden aplicarse fuera de la capa límite.
Gran parte del desarrollo moderno de la mecánica de fluidos, posibilitado por el
concepto de capa límite, se ha debido a investigadores como el ingeniero aeronáutico
estadounidense de origen húngaro Theodore von Kármán, el matemático alemán
Richard von Mises y el físico y meteorólogo británico Geoffrey Ingram Taylor.
4
Flujos compresibles
El interés por los flujos compresibles comenzó con el desarrollo de las turbinas de
vapor por el inventor británico Charles Algernon Parsons y el ingeniero sueco Carl
Gustaf Patrik de Laval durante la década de 1880. En esos mecanismos se descubrió
por primera vez el flujo rápido de vapor a través de tubos, y la necesidad de un
diseño eficiente de turbinas llevó a una mejora del análisis de los flujos compresibles.
Pero los avances modernos tuvieron que esperar al estímulo que supuso el desarrollo
de la turbina de combustión y la propulsión a chorro en la década de 1930. El interés
por los flujos de alta velocidad sobre superficies surgió de forma temprana en los
estudios de balística, donde se necesitaba comprender el movimiento de los
proyectiles. Los avances más importantes comenzaron hacia el final del siglo XIX,
con Prandtl y sus discípulos, entre otros, y crecieron con la introducción de los
aviones de alta velocidad y los cohetes en la II Guerra Mundial.
Uno de los principios básicos del flujo compresible es que la densidad de un gas
cambia cuando el gas se ve sometido a grandes cambios de velocidad y presión. Al
mismo tiempo, su temperatura también cambia, lo que lleva a problemas de análisis
más complejos. El comportamiento de flujo de un gas compresible depende de si la
velocidad de flujo es mayor o menor que la velocidad del sonido. El sonido es la
propagación de una pequeña perturbación, u onda de presión, dentro de un fluido.
Para un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su
temperatura absoluta. La velocidad del sonido en el aire a 20 °C (293 kelvins en la
escala absoluta), es de unos 344 metros por segundo. Si la velocidad de flujo es
menor que la velocidad del sonido (flujo subsónico), las ondas de presión pueden
transmitirse a través de todo el fluido y así adaptar el flujo que se dirige hacia un
objeto. Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará
con cierta distancia de antelación para fluir suavemente sobre la superficie. En el
flujo supersónico, las ondas de presión no pueden viajar corriente arriba para
adaptar el flujo. Por ello, el aire que se dirige hacia el ala de un avión en vuelo
supersónico no está preparado para la perturbación que va a causar el ala y tiene
que cambiar de dirección repentinamente en la proximidad del ala, lo que conlleva
una compresión intensa u onda de choque. El ruido asociado con el paso de esta
onda de choque sobre los observadores situados en tierra constituye el estampido
sónico de los aviones supersónicos. Frecuentemente se identifican los flujos
supersónicos por su número de Mach, que es el cociente entre la velocidad de flujo y
la velocidad del sonido. Por tanto, los flujos supersónicos tienen un número de Mach
superior a 1.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Tensión superficial
Tensión superficial, condición existente en la superficie libre de un líquido, semejante
a las propiedades de una membrana elástica bajo tensión. La tensión es el resultado
de las fuerzas moleculares, que ejercen una atracción no compensada hacia el
interior del líquido sobre las moléculas individuales de la superficie; esto se refleja en
la considerable curvatura en los bordes donde el líquido está en contacto con la
pared del recipiente. Concretamente, la tensión superficial es la fuerza por unidad de
longitud de cualquier línea recta de la superficie líquida que las capas superficiales
situadas en los lados opuestos de la línea ejercen una sobre otra. Véase Cohesión.
La tendencia de cualquier superficie líquida es hacerse lo más reducida posible como
resultado de esta tensión, como ocurre con el mercurio, que forma una bola casi
redonda cuando se deposita una cantidad pequeña sobre una superficie horizontal.
La forma casi perfectamente esférica de una burbuja de jabón, que se debe a la
distribución de la tensión sobre la delgada película de jabón, es otro ejemplo de esta
fuerza. La tensión superficial es suficiente para sostener una aguja colocada
horizontalmente sobre el agua. Veáse también Capilaridad.
La tensión superficial es importante en condiciones de ingravidez; en los vuelos
espaciales, los líquidos no pueden guardarse en recipientes abiertos porque
ascienden por las paredes de los recipientes.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Capilaridad
Capilaridad, elevación o depresión de la superficie de un líquido en la zona de
contacto con un sólido, por ejemplo, en las paredes de un tubo. Este fenómeno es
una excepción a la ley hidrostática de los vasos comunicantes, según la cual una
masa de líquido tiene el mismo nivel en todos los puntos; el efecto se produce de
forma más marcada en tubos capilares (del latín capillus, 'pelo', 'cabello'), es decir,
tubos de diámetro muy pequeño. La capilaridad, o acción capilar, depende de las
fuerzas creadas por la tensión superficial y por el mojado de las paredes del tubo. Si
las fuerzas de adhesión del líquido al sólido (mojado) superan a las fuerzas de
cohesión dentro del líquido (tensión superficial), la superficie del líquido será cóncava
y el líquido subirá por el tubo, es decir, ascenderá por encima del nivel hidrostático.
Este efecto ocurre por ejemplo con agua en tubos de vidrio limpios. Si las fuerzas de
cohesión superan a las fuerzas de adhesión, la superficie del líquido será convexa y
el líquido caerá por debajo del nivel hidrostático. Así sucede por ejemplo con agua en
tubos de vidrio grasientos (donde la adhesión es pequeña) o con mercurio en tubos
de vidrio limpios (donde la cohesión es grande). La absorción de agua por una
esponja y la ascensión de la cera fundida por el pabilo de una vela son ejemplos
familiares de ascensión capilar. El agua sube por la tierra debido en parte a la
capilaridad, y algunos instrumentos de escritura como la pluma estilográfica (fuente)
o el rotulador (plumón) se basan en este principio. Veáse también Suelo; Mecánica
de fluidos.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Viscosímetro
Viscosímetro, instrumento utilizado para medir la viscosidad de los líquidos. Consiste
en una pequeña vasija en cuyo fondo existe un orificio calibrado y de tamaño
conocido, y en la que se vierte un volumen conocido de líquido. El tiempo que éste
emplea en fluir por el orificio es una medida de su viscosidad.
Los líquidos no son perfectamente fluidos sino viscosos, es decir, tienden a oponerse
a su flujo cuando se les aplica una fuerza. La viscosidad viene determinada por la
fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas
adyacentes. Con el viscosímetro se mide la viscosidad relativa del líquido respecto a
la del agua, que se toma como unidad. La viscosidad relativa es directamente
proporcional a la densidad del líquido y al tiempo que éste tarda en fluir por el
orificio, e inversamente proporcional al tiempo que invierte en fluir el mismo
volumen de agua. Como la temperatura influye mucho en el valor de la viscosidad,
las medidas deben realizarse a la misma temperatura.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Viscosidad
1
INTRODUCCIÓN
Viscosidad, propiedad de un fluido que tiende a oponerse a su flujo cuando se le
aplica una fuerza. Los fluidos de alta viscosidad presentan una cierta resistencia a
fluir; los fluidos de baja viscosidad fluyen con facilidad. La fuerza con la que una
capa de fluido en movimiento arrastra consigo a las capas adyacentes de fluido
determina su viscosidad, que se mide con un recipiente (viscosímetro) que tiene un
orificio de tamaño conocido en el fondo. La velocidad con la que el fluido sale por el
orificio es una medida de su viscosidad. Véase Mecánica de fluidos.
2
FLUJOS DE LA CAPA LÍMITE
Según la teoría molecular, cuando un fluido empieza a fluir bajo la influencia de la
gravedad, las moléculas de las capas estacionarias del fluido deben cruzar una
frontera o límite para entrar en la región de flujo. Una vez cruzado el límite, estas
moléculas reciben energía de las que están en movimiento y comienzan a fluir.
Debido a la energía transferida, las moléculas que ya estaban en movimiento
reducen su velocidad. Al mismo tiempo, las moléculas de la capa de fluido en
movimiento cruzan el límite en sentido opuesto y entran en las capas estacionarias,
con lo que transmiten un impulso a las moléculas estacionarias. El resultado global
de este movimiento bidireccional de un lado al otro del límite es que el fluido en
movimiento reduce su velocidad, el fluido estacionario se pone en movimiento, y las
capas en movimiento adquieren una velocidad media.
Para hacer que una capa de fluido se mantenga moviéndose a mayor velocidad que
otra capa es necesario aplicar una fuerza continua. La viscosidad en poises se define
como la magnitud de la fuerza (medida en dinas por centímetro cuadrado de
superficie) necesaria para mantener —en situación de equilibrio— una diferencia de
velocidad de 1 cm por segundo entre capas separadas por 1 cm. La viscosidad del
agua a temperatura ambiente (20 °C) es de 0,0100 poises; en el punto de ebullición
(100 °C) disminuye hasta 0,0028 poises.
3
EFECTOS DEL CALOR
La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al
aumentar la temperatura. En un fluido menos denso hay menos moléculas por
unidad de volumen que puedan transferir impulso desde la capa en movimiento
hasta la capa estacionaria. Esto, a su vez, afecta a la velocidad de las distintas
capas. El momento se transfiere con más dificultad entre las capas, y la viscosidad
disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la
reducción de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su
tendencia a fluir cuando cambia la temperatura, por lo que son muy útiles como
lubricantes cuando una máquina está sometida a grandes cambios de temperatura.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Teorema de Bernoulli
Teorema de Bernoulli, principio físico que implica la disminución de la presión de un
fluido (líquido o gas) en movimiento cuando aumenta su velocidad. Fue formulado en
1738 por el matemático y físico suizo Daniel Bernoulli, y anteriormente por Leonhard
Euler. El teorema afirma que la energía total de un sistema de fluidos con flujo
uniforme permanece constante a lo largo de la trayectoria de flujo. Puede
demostrarse que, como consecuencia de ello, el aumento de velocidad del fluido
debe verse compensado por una disminución de su presión.
El teorema se aplica al flujo sobre superficies, como las alas de un avión o las hélices
de un barco. Las alas están diseñadas para que obliguen al aire a fluir con mayor
velocidad sobre la superficie superior que sobre la inferior, por lo que la presión
sobre esta última es mayor que sobre la superior. Esta diferencia de presión
proporciona la fuerza de sustentación que mantiene al avión en vuelo. Una hélice
también es un plano aerodinámico, es decir, tiene forma de ala. En este caso, la
diferencia de presión que se produce al girar la hélice proporciona el empuje que
impulsa al barco. El teorema de Bernoulli también se emplea en las toberas, donde
se acelera el flujo reduciendo el diámetro del tubo, con la consiguiente caída de
presión. Asimismo se aplica en los caudalímetros de orificio, también llamados
venturi, que miden la diferencia de presión entre el fluido a baja velocidad que pasa
por un tubo de entrada y el fluido a alta velocidad que pasa por un orificio de menor
diámetro, con lo que se determina la velocidad de flujo y, por tanto, el caudal.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Número de Reynolds
Número de Reynolds, número adimensional que se utiliza en la mecánica de fluidos
para estudiar el movimiento de un fluido en el interior de una tubería, o alrededor de
un obstáculo sólido. Se representa por R.
El número de Reynolds puede ser calculado para cada conducción recorrida por un
determinado fluido y es el producto de la velocidad, la densidad del fluido y el
diámetro de la tubería dividido entre la viscosidad del fluido. Para un mismo valor de
este número el flujo posee idénticas características cualquiera que sea la tubería o el
fluido que circule por ella. Si R es menor de 2.100 el flujo a través de la tubería es
siempre laminar; cuando los valores son superiores a 2.100 el flujo es turbulento.
De acuerdo con la expresión del número de Reynolds, cuanto más elevada sea la
viscosidad de un fluido mayor podrá ser el diámetro de la tubería sin que el flujo deje
de ser laminar, puesto que las densidades de los líquidos son casi todas del mismo
orden de magnitud. Por este motivo los oleoductos, en régimen laminar, pueden
tener secciones superiores a las conducciones de agua, ya que la viscosidad de los
fluidos que circulan por aquéllos es mayor que la del agua.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Aerodinámica
1
INTRODUCCIÓN
Aerodinámica, rama de la mecánica de fluidos que se ocupa del movimiento del aire
y otros fluidos gaseosos, y de las fuerzas que actúan sobre los cuerpos que se
mueven en dichos fluidos. Algunos ejemplos del ámbito de la aerodinámica son el
movimiento de un avión a través del aire, las fuerzas que el viento ejerce sobre una
estructura o el funcionamiento de un molino de viento.
2
EL TEOREMA DE BERNOULLI
Una de las leyes fundamentales que rigen el movimiento de los fluidos es el teorema
de Bernoulli, que relaciona un aumento en la velocidad de flujo con una disminución
de la presión y viceversa. El teorema de Bernoulli explica, por ejemplo, la fuerza de
sustentación que actúa sobre el ala de un avión en vuelo. Un ala —o plano
aerodinámico— está diseñada de forma que el aire fluya más rápidamente sobre la
superficie superior que sobre la inferior, lo que provoca una disminución de presión
en la superficie de arriba con respecto a la de abajo. Esta diferencia de presiones
proporciona la fuerza de sustentación que mantiene el avión en vuelo.
Los coches de carrera son muy bajos con el fin de que el aire se desplace a gran
velocidad por el estrecho espacio entre la carrocería y el suelo. Esto reduce la
presión debajo del vehículo y lo aprieta con fuerza hacia abajo, lo que mejora el
agarre. Estos coches también llevan en su parte trasera un plano aerodinámico con
forma de ala invertida para aumentar la fuerza contra el suelo.
La vela de un balandro en movimiento también constituye un plano aerodinámico
(véase Navegación deportiva). Otro aspecto importante de la aerodinámica es la
resistencia al avance que experimentan los objetos sólidos que se mueven a través
del aire. Por ejemplo, las fuerzas de resistencia que ejerce el aire que fluye sobre un
avión deben ser superadas por el empuje del reactor o de las hélices. La resistencia
al avance puede reducirse significativamente empleando formas aerodinámicas.
Cuando el objeto no es totalmente aerodinámico, la resistencia aumenta de forma
aproximadamente proporcional al cuadrado de su velocidad con respecto al aire. Por
ejemplo, la potencia necesaria para propulsar un coche que avanza de forma
uniforme a velocidades medias o altas se emplea fundamentalmente en superar la
resistencia del aire.
3
SUPERSÓNICA
La supersónica, una rama importante de la aerodinámica, se ocupa de los fenómenos
que tienen lugar cuando la velocidad de un sólido supera la velocidad del sonido en
el medio —generalmente aire— en que se desplaza. La velocidad del sonido en la
atmósfera varía según la humedad, la temperatura y la presión. Como la velocidad
del sonido es un factor crucial en las ecuaciones aerodinámicas y no es constante,
suele emplearse el número de Mach, así llamado en honor del físico y filósofo
austriaco Ernst Mach, un pionero en el estudio de la balística. El número de Mach es
la velocidad respecto a la atmósfera del proyectil o el avión dividida entre la
velocidad del sonido en el mismo medio y con las mismas condiciones. Así, al nivel
del mar, en condiciones normales de humedad y temperatura, una velocidad de
1.220 km/h representa un número de Mach de 1. En la estratosfera, debido a las
diferencias de densidad, presión y temperatura, esta misma velocidad correspondería
a un número de Mach de 1,16. Expresando las velocidades por su número de Mach,
en vez de en kilómetros por hora, puede obtenerse una representación más exacta
de las condiciones que se dan realmente durante el vuelo.
1
Ondas de choque
Los estudios mediante observaciones ópticas de proyectiles de artillería revelan la
naturaleza de las perturbaciones atmosféricas encontradas durante el vuelo. A
velocidades subsónicas, por debajo de Mach 0,85 , la única perturbación atmosférica
es una turbulencia en la estela del proyectil. En la zona transónica, entre Mach 0,85
y Mach 1,3 , aparecen ondas de choque a medida que aumenta la velocidad; en el
rango más bajo de esa zona de velocidades, las ondas de choque surgen de cualquier
protuberancia abrupta en el contorno suave del proyectil. Cuando la velocidad supera
Mach 1, las ondas de choque surgen de la parte delantera y la cola y se propagan en
forma de cono desde el proyectil. El ángulo del cono es tanto menor cuanto mayor es
la velocidad del proyectil. Así, a Mach 1, la onda es esencialmente un plano; a Mach
1,4 (1.712 km/h al nivel del mar), el ángulo del cono es de aproximadamente 90°; a
Mach 2,48 (unos 3.030 km/h), la onda de choque procedente del proyectil tiene un
ángulo cónico ligeramente menor de 50°. La investigación en este campo ha
permitido el diseño de los modernos aviones de gran velocidad, en los que las alas se
inclinan hacia atrás formando ángulos de hasta 60° para evitar la onda de choque
procedente de la parte delantera del avión.
2
Maximización de la eficiencia
Entre otros factores estudiados por la investigación sobre proyectiles de artillería
supersónicos figuran la forma ideal de los proyectiles y el comportamiento de un gas
que fluye a altas velocidades. La llamada forma de gota, que es la forma
aerodinámica ideal para velocidades subsónicas, es muy poco eficaz en la zona
supersónica debido a su gran superficie frontal, que comprime el aire y da lugar a
ondas de choque de gran amplitud que absorben mucha energía.
Cuando un gas fluye por un tubo estrechado, como la tobera de un cohete, a
velocidades subsónicas, la velocidad de flujo aumenta y la presión disminuye en el
cuello del estrechamiento. A velocidades supersónicas se produce el fenómeno
inverso, y la velocidad de flujo aumenta en un tubo divergente. Así, los gases de
escape de un cohete, al acelerarse en la tobera hasta la velocidad del sonido,
aumentan aún más su velocidad, y por tanto su empuje, en el ensanchamiento
divergente de la tobera, con lo que se multiplica la eficiencia del cohete. Otro factor
que los diseñadores de cohetes conocen desde hace tiempo es la influencia directa
de la presión atmosférica reinante sobre la eficiencia del vuelo a velocidades
supersónicas. Cuanto más próximo esté el medio circundante a un vacío perfecto,
más eficiente es el motor del avión o el cohete. El rango de velocidades de un avión
supersónico también puede aumentarse reduciendo la superficie, o sección
transversal, que presenta al aire. En los aviones que operan a velocidades
supersónicas es imprescindible aumentar el peso del aparato aumentando su
longitud, hacerlo más esbelto y dotarlo de un frente en forma de aguja. En los años
posteriores a la II Guerra Mundial, los centros de investigación en aerodinámica
construyeron túneles de viento donde se podían probar maquetas o piezas de
aviones en corrientes de aire supersónicas.
3
Regla de las superficies
Un importante avance en la aeronáutica, gracias a las investigaciones en túneles de
viento, se debió al físico estadounidense Richard Travis Whitcomb, que descubrió la
regla de las superficies para el diseño de aviones supersónicos. Según este principio,
el aumento abrupto en la resistencia al avance que se produce a velocidades
transónicas se debe a la distribución de la superficie total de la sección transversal
en cada punto del avión. Estrechando el fuselaje en la zona donde está unido a las
alas, la reducción en la sección transversal total del fuselaje y las alas disminuye la
resistencia al avance del aparato. El diseño de Whitcomb, llamado de talle de avispa,
hizo posible un aumento del 25% en el rango de velocidades supersónicas sin
necesidad de una mayor potencia en los motores.
En el pasado se utilizaba el término supersónica en un sentido más amplio, e incluía
la rama de la física ahora conocida como ultrasónica, que se ocupa de las ondas de
sonido de alta frecuencia, generalmente por encima de los 20.000 hercios (Hz).
Veáse también Propulsión a chorro.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Efecto Venturi
Efecto Venturi, fenómeno que se produce en una canalización horizontal y de sección
variable por la que circula un fluido incompresible, sin viscosidad y si la circulación se
lleva a cabo en régimen permanente.
De acuerdo con el teorema de Bernoulli, la velocidad en la parte estrecha de la
canalización tiene que ser mayor que en la ancha, y por estar ambas a la misma
altura, la presión en la parte ancha es mayor que en la estrecha. Por tanto, cuando
un fluido incrementa su velocidad sin variar de nivel, su presión disminuye.
Aplicaciones de este fenómeno son la trompa de agua, que es un aparato utilizado en
los laboratorios para hacer el vacío, los tubos de Venturi, que se emplean para medir
caudales y crear depresiones locales, los pulverizadores y el mechero Bunsen.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Aire comprimido
1
INTRODUCCIÓN
Aire comprimido, aire a presión superior a una atmósfera. Puede emplearse para
empujar un pistón, como en una perforadora neumática; hacerse pasar por una
pequeña turbina de aire para mover un eje, como en los instrumentos odontológicos
o expandirse a través de una tobera para producir un chorro de alta velocidad, como
en una pistola para pintar. El aire comprimido suministra fuerza a las herramientas
llamadas neumáticas, como perforadoras, martillos, remachadoras o taladros de
roca. El aire comprimido también se emplea en las minas de carbón para evitar que
se produzcan explosiones por las chispas de las herramientas eléctricas que hacen
detonar las bolsas de grisú. Veáse también Compresor.
2
HISTORIA
La primera transmisión neumática data de 1700, cuando el físico francés Denis Papin
empleó la fuerza de un molino de agua para comprimir aire que después se
transportaba por tubos. Aproximadamente un siglo después, el inventor británico
George Medhurst obtuvo una patente para impulsar un motor mediante aire
comprimido, aunque la primera aplicación práctica del método suele atribuirse al
inventor británico George Law, quien en 1865 diseñó un taladro de roca en el que un
pistón movido por aire hacía funcionar un martillo. El uso de este taladro se
generalizó, y fue empleado en la perforación del túnel ferroviario del Mont Cenis, en
los Alpes, que se inauguró en 1871, y en el túnel de Hossac, en Massachusetts
(Estados Unidos), inaugurado en 1875. Otro avance significativo fue el freno de aire
comprimido para trenes, diseñado hacia 1868 por el inventor, ingeniero e industrial
estadounidense George Westinghouse.
3
APLICACIONES
Los motores de aire comprimido se emplean en numerosas herramientas donde se
requieren fuerzas intensas de carácter intermitente, como perforadoras neumáticas;
en herramientas de mano donde la fuerza de un motor eléctrico podría ser
demasiado grande, como por ejemplo las pistolas empleadas en los talleres para
apretar o aflojar las tuercas en las ruedas (llantas)de los coches; por último, en
pequeños sistemas rotativos de alta velocidad que requieren entre 10.000 y 30.000
revoluciones por minuto. La fuerza neumática también se emplea en numerosas
máquinas automáticas para la producción industrial.
Puede conseguirse un movimiento oscilante o rotativo mediante un mecanismo de
biela o trinquete, aunque para el movimiento rotativo de alta velocidad resulta más
adecuado un motor de palas o similar. El motor actúa como una turbina de aire,
haciendo girar el rotor al expandirse éste, y se emplea para taladros y trituradores
de alta velocidad y para sirenas de aire comprimido.
Tras corrientes de aire comprimido son también útiles para transportar otros
materiales y pulverizarlos a través de una tobera atomizadora. Por ejemplo, puede
aspirarse pintura y mezclarse con una corriente de aire. El aire pasa a través de un
estrechamiento en un tubo, donde aumenta su velocidad a la vez que disminuye su
presión (véase Teorema de Bernoulli); la pintura se aspira en ese punto, se mezcla
con el aire, se vuelve a comprimir dinámicamente y se lanza a través de la tobera.
Las pulidoras de chorro de arena absorben y pulverizan arena de este mismo modo.
Un aerosol también actúa como un pulverizador neumático.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Calor
1
INTRODUCCIÓN
Calor, en física, transferencia de energía de una parte a otra de un cuerpo, o entre
diferentes cuerpos, en virtud de una diferencia de temperatura. El calor es energía
en tránsito; siempre fluye de una zona de mayor temperatura a una zona de menor
temperatura, con lo que eleva la temperatura de la segunda y reduce la de la
primera, siempre que el volumen de los cuerpos se mantenga constante. La energía
no fluye desde un objeto de temperatura baja a un objeto de temperatura alta si no
se realiza trabajo.
Hasta principios del siglo XIX, el efecto del calor sobre la temperatura de un cuerpo
se explicaba postulando la existencia de una sustancia o forma de materia invisible,
denominada calórico. Según la teoría del calórico, un cuerpo de temperatura alta
contiene más calórico que otro de temperatura baja; el primero cede parte del
calórico al segundo al ponerse en contacto ambos cuerpos, con lo que aumenta la
temperatura de dicho cuerpo y disminuye la suya propia. Aunque la teoría del
calórico explicaba algunos fenómenos de la transferencia de calor, las pruebas
experimentales presentadas por el físico británico Benjamin Thompson en 1798 y por
el químico británico Humphry Davy en 1799 sugerían que el calor, igual que el
trabajo, corresponde a energía en tránsito (proceso de intercambio de energía).
Entre 1840 y 1849, el físico británico James Prescott Joule, en una serie de
experimentos muy precisos, demostró de forma concluyente que el calor es una
transferencia de energía y que puede causar los mismos cambios en un cuerpo que
el trabajo.
2
TEMPERATURA
La sensación de calor o frío al tocar una sustancia depende de su temperatura, de la
capacidad de la sustancia para conducir el calor y de otros factores. Aunque, si se
procede con cuidado, es posible comparar las temperaturas relativas de dos
sustancias mediante el tacto, es imposible evaluar la magnitud absoluta de las
temperaturas a partir de reacciones subjetivas. Cuando se aporta calor a una
sustancia, no sólo se eleva su temperatura, con lo que proporciona una mayor
sensación de calor, sino que se producen alteraciones en varias propiedades físicas
que se pueden medir con precisión. Al variar la temperatura, las sustancias se
dilatan o se contraen, su resistencia eléctrica cambia y, en el caso de un gas, su
presión varía. La variación de alguna de estas propiedades suele servir como base
para una escala numérica precisa de temperaturas (ver más adelante).
La temperatura depende de la energía cinética media (o promedio) de las moléculas
de una sustancia; según la teoría cinética (véase Gas; Termodinámica), la energía
puede corresponder a movimientos rotacionales, vibracionales y traslacionales de las
partículas de una sustancia. La temperatura, sin embargo, sólo depende del
movimiento de traslación de las moléculas. En teoría, las moléculas de una sustancia
no presentarían actividad traslacional alguna a la temperatura denominada cero
absoluto. Véase Molécula.
3
ESCALAS DE TEMPERATURA
En la actualidad se emplean diferentes escalas de temperatura; entre ellas están la
escala Celsius —también conocida como escala centígrada—, la escala Fahrenheit, la
escala Kelvin, la escala Rankine o la escala termodinámica internacional (véase
Termómetro). En la escala Celsius, el punto de congelación del agua equivale a 0 °C
y su punto de ebullición a 100 °C. Esta escala se utiliza en todo el mundo, en
particular en el trabajo científico. La escala Fahrenheit se emplea en los países
anglosajones para medidas no científicas y en ella el punto de congelación del agua
se define como 32 °F y su punto de ebullición como 212 °F. En la escala Kelvin, la
escala termodinámica de temperaturas más empleada, el cero se define como el cero
absoluto de temperatura, es decir, -273,15 °C. La magnitud de su unidad, llamada
kelvin y simbolizada por K, se define como igual a un grado Celsius. Otra escala que
emplea el cero absoluto como punto más bajo es la escala Rankine, en la que cada
grado de temperatura equivale a un grado en la escala Fahrenheit. En la escala
Rankine, el punto de congelación del agua equivale a 492 °R y su punto de ebullición
a 672 °R.
En 1933, científicos de treinta y una naciones adoptaron una nueva escala
internacional de temperaturas, con puntos fijos de temperatura adicionales basados
en la escala Kelvin y en principios termodinámicos. La escala internacional emplea
como patrón un termómetro de resistencia de platino (cable de platino) para
temperaturas entre -190 °C y 660 °C. Desde los 660 °C hasta el punto de fusión del
oro (1.064 °C) se emplea un termopar patrón: los termopares son dispositivos que
miden la temperatura a partir de la tensión producida entre dos alambres de metales
diferentes (véase Termoelectricidad). Más allá del punto de fusión del oro las
temperaturas se miden mediante el llamado pirómetro óptico, que se basa en la
intensidad de la luz de una frecuencia determinada que emite un cuerpo caliente.
En 1954, un acuerdo internacional adoptó el punto triple del agua —es decir, el
punto en que las tres fases del agua (vapor, líquido y sólido) están en equilibrio—
como referencia para la temperatura de 273,16 K. El punto triple se puede
determinar con mayor precisión que el punto de congelación, por lo que supone un
punto fijo más satisfactorio para la escala termodinámica. En criogenia, o
investigación de bajas temperaturas, se han obtenido temperaturas de tan sólo
0,00001 K mediante la desmagnetización de sustancias paramagnéticas. En las
explosiones nucleares (véase Armas nucleares) se han alcanzado momentáneamente
temperaturas evaluadas en más de 100 millones de kelvins.
4
UNIDADES DE CALOR
En las ciencias físicas, la cantidad de calor se expresa en las mismas unidades que la
energía y el trabajo, es decir, en julios. Otra unidad es la caloría, definida como la
cantidad de calor necesaria para elevar la temperatura de 1 gramo de agua a 1
atmósfera de presión desde 15 hasta 16 °C. Esta unidad se denomina a veces
caloría pequeña o caloría gramo para distinguirla de la caloría grande, o kilocaloría,
que equivale a 1.000 calorías y se emplea en nutrición. La energía mecánica se
puede convertir en calor a través del rozamiento, y el trabajo mecánico necesario
para producir 1 caloría se conoce como equivalente mecánico del calor. A una caloría
le corresponden 4,1855 julios. Según la ley de conservación de la energía, todo el
trabajo mecánico realizado para producir calor por rozamiento aparece en forma de
energía en los objetos sobre los que se realiza el trabajo. Joule fue el primero en
demostrarlo de forma fehaciente en un experimento clásico: calentó agua en un
recipiente cerrado haciendo girar unas ruedas de paletas y halló que el aumento de
temperatura del agua era proporcional al trabajo realizado para mover las ruedas.
Cuando el calor se convierte en energía mecánica, como en un motor de combustión
interna, la ley de conservación de la energía también es válida. Sin embargo,
siempre se pierde o disipa energía en forma de calor porque ningún motor tiene una
eficiencia perfecta. Véase Caballo de vapor.
5
CALOR LATENTE
El cambio de temperatura de una sustancia conlleva una serie de cambios físicos.
Casi todas las sustancias aumentan de volumen al calentarse y se contraen al
enfriarse. El comportamiento del agua entre 0 y 4 °C constituye una importante
excepción a esta regla (véase Hielo). Se denomina fase de una sustancia a su
estado, que puede ser sólido, líquido o gaseoso. Los cambios de fase en sustancias
puras tienen lugar a temperaturas y presiones definidas (véase Regla de las fases).
El paso de sólido a gas se denomina sublimación, de sólido a líquido fusión, y de
líquido a vapor vaporización. Si la presión es constante, estos procesos tienen lugar a
una temperatura constante. La cantidad de calor necesaria para producir un cambio
de fase se llama calor latente; existen calores latentes de sublimación, fusión y
vaporización (véase Destilación; Evaporación). Si se hierve agua en un recipiente
abierto a la presión de 1 atmósfera, la temperatura no aumenta por encima de los
100 °C por mucho calor que se suministre. El calor que se absorbe sin cambiar la
temperatura del agua es el calor latente; no se pierde, sino que se emplea en
transformar el agua en vapor y se almacena como energía en el vapor. Cuando el
vapor se condensa para formar agua, esta energía vuelve a liberarse (véase
Condensación). Del mismo modo, si se calienta una mezcla de hielo y agua, su
temperatura no cambia hasta que se funde todo el hielo. El calor latente absorbido
se emplea para vencer las fuerzas que mantienen unidas las partículas de hielo, y se
almacena como energía en el agua. Para fundir 1 kg de hielo se necesitan 19.000
julios, y para convertir 1 kg de agua en vapor a 100 °C, hacen falta 129.000 julios.
6
CALOR ESPECÍFICO
La cantidad de calor necesaria para aumentar en un grado la temperatura de una
unidad de masa de una sustancia se conoce como calor específico. Si el
calentamiento se produce manteniendo constante el volumen de la sustancia o su
presión, se habla de calor específico a volumen constante o a presión constante. En
todas las sustancias, el primero siempre es menor o igual que el segundo. El calor
específico del agua a 15 °C es de 4.185,5 julios por kilogramo y grado Celsius. En el
caso del agua y de otras sustancias prácticamente incompresibles, no es necesario
distinguir entre los calores específicos a volumen constante y presión constante ya
que son aproximadamente iguales. Generalmente, los dos calores específicos de una
sustancia dependen de la temperatura.
Véase también Calorimetría.
7
TRANSFERENCIA DE CALOR
Los procesos físicos por los que se produce la transferencia de calor son la
conducción y la radiación. Un tercer proceso, que también implica el movimiento de
materia, se denomina convección. La conducción requiere contacto físico entre los
cuerpos —o las partes de un cuerpo— que intercambian calor, pero en la radiación
no hace falta que los cuerpos estén en contacto ni que haya materia entre ellos. La
convección se produce a través del movimiento de un líquido o un gas en contacto
con un cuerpo de temperatura diferente.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Dilatación
Dilatación, aumento de tamaño de los materiales, a menudo por efecto del aumento
de temperatura. Los diferentes materiales aumentan más o menos de tamaño, y los
sólidos, líquidos y gases se comportan de modo distinto.
Para un sólido en forma de barra, el coeficiente de dilatación lineal (cambio
porcentual de longitud para un determinado aumento de la temperatura) puede
encontrarse en las correspondientes tablas. Por ejemplo, el coeficiente de dilatación
lineal del acero es de 12 × 10-6 K-1. Esto significa que una barra de acero se dilata en
12 millonésimas partes por cada kelvin (1 kelvin, o 1 K, es igual a 1 grado Celsius, o
1 ºC). Si se calienta un grado una barra de acero de 1 m, se dilatará 0,012 mm. Esto
puede parecer muy poco, pero el efecto es proporcional, con lo que una viga de
acero de 10 m calentada 20 grados se dilata 2,4 mm, una cantidad que debe tenerse
en cuenta en ingeniería. También se puede hablar de coeficiente de dilatación
superficial de un sólido, cuando dos de sus dimensiones son mucho mayores que la
tercera, y de coeficiente de dilatación cúbica, cuando no hay una dimensión que
predomine sobre las demás.
Para los líquidos, el coeficiente de dilatación cúbica (cambio porcentual de volumen
para un determinado aumento de la temperatura) también puede encontrarse en
tablas y se pueden hacer cálculos similares. Los termómetros comunes utilizan la
dilatación de un líquido —por ejemplo, mercurio o alcohol— en un tubo muy fino
(capilar) calibrado para medir el cambio de temperatura.
La dilatación térmica de los gases es muy grande en comparación con la de sólidos y
líquidos, y sigue la llamada ley de Charles y Gay-Lussac. Esta ley afirma que, a
presión constante, el volumen de un gas ideal (un ente teórico que se aproxima al
comportamiento de los gases reales) es proporcional a su temperatura absoluta. Otra
forma de expresarla es que por cada aumento de temperatura de 1 ºC, el volumen
de un gas aumenta en una cantidad aproximadamente igual a 1/273 de su volumen
a 0 ºC. Por tanto, si se calienta de 0 ºC a 273 ºC, duplicaría su volumen.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Ley de Charles y Gay-Lussac
Ley de Charles y Gay-Lussac, ley que afirma que el volumen de un gas ideal a
presión constante es proporcional a su temperatura absoluta.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Gas
1
INTRODUCCIÓN
Gas, sustancia en uno de los tres estados diferentes de la materia ordinaria, que son
el sólido, el líquido y el gaseoso. Los sólidos tienen una forma bien definida y son
difíciles de comprimir. Los líquidos fluyen libremente y están limitados por superficies
que forman por sí solos. Los gases se expanden libremente hasta llenar el recipiente
que los contiene, y su densidad es mucho menor que la de los líquidos y sólidos.
2
LEY DE LOS GASES IDEALES
La teoría atómica de la materia define los estados, o fases, de acuerdo al orden que
implican. Las moléculas tienen una cierta libertad de movimientos en el espacio.
Estos grados de libertad microscópicos están asociados con el concepto de orden
macroscópico. Las moléculas de un sólido están colocadas en una red, y su libertad
está restringida a pequeñas vibraciones en torno a los puntos de esa red. En cambio,
un gas no tiene un orden espacial macroscópico. Sus moléculas se mueven
aleatoriamente, y sólo están limitadas por las paredes del recipiente que lo contiene.
Se han desarrollado leyes empíricas que relacionan las variables macroscópicas. En
los gases ideales, estas variables incluyen la presión (p), el volumen (V) y la
temperatura (T). La ley de Boyle-Mariotte afirma que el volumen de un gas a
temperatura constante es inversamente proporcional a la presión. La ley de Charles
y Gay-Lussac afirma que el volumen de un gas a presión constante es directamente
proporcional a la temperatura absoluta. La combinación de estas dos leyes
proporciona la ley de los gases ideales pV = nRT (n es el número de moles), también
llamada ecuación de estado del gas ideal. La constante de la derecha, R, es una
constante universal cuyo descubrimiento fue una piedra angular de la ciencia
moderna.
3
TEORÍA CINÉTICA DE LOS GASES
Con la llegada de la teoría atómica de la materia, las leyes empíricas antes
mencionadas obtuvieron una base microscópica. El volumen de un gas refleja
simplemente la distribución de posiciones de las moléculas que lo componen. Más
exactamente, la variable macroscópica V representa el espacio disponible para el
movimiento de una molécula. La presión de un gas, que puede medirse con
manómetros situados en las paredes del recipiente, registra el cambio medio de
momento lineal que experimentan las moléculas al chocar contra las paredes y
rebotar en ellas. La temperatura del gas es proporcional a la energía cinética media
de las moléculas, por lo que depende del cuadrado de su velocidad. La reducción de
las variables macroscópicas a variables mecánicas como la posición, velocidad,
momento lineal o energía cinética de las moléculas, que pueden relacionarse a través
de las leyes de la mecánica de Newton, debería de proporcionar todas las leyes
empíricas de los gases. En general, esto resulta ser cierto.
La teoría física que relaciona las propiedades de los gases con la mecánica clásica se
denomina teoría cinética de los gases. Además de proporcionar una base para la
ecuación de estado del gas ideal, la teoría cinética también puede emplearse para
predecir muchas otras propiedades de los gases, entre ellas la distribución
estadística de las velocidades moleculares y las propiedades de transporte como la
conductividad térmica, el coeficiente de difusión o la viscosidad.
1
Ecuación de van der Waals
La ecuación de estado del gas ideal no es del todo correcta: los gases reales no se
comportan exactamente así. En algunos casos, la desviación puede ser muy grande.
Por ejemplo, un gas ideal nunca podría convertirse en líquido o sólido por mucho que
se enfriara o comprimiera. Por eso se han propuesto modificaciones de la ley de los
gases ideales, pV = nRT. Una de ellas, muy conocida y particularmente útil, es la
ecuación de estado de van der Waals (p + a/v2)(v - b) = RT, donde v = V/n, y a y b
son parámetros ajustables determinados a partir de medidas experimentales en
gases reales. Son parámetros de la sustancia y no constantes universales, puesto
que sus valores varían de un gas a otro.
La ecuación de van der Waals también tiene una interpretación microscópica. Las
moléculas interaccionan entre sí. La interacción es muy repulsiva a corta distancia,
se hace ligeramente atractiva a distancias intermedias y desaparece a distancias más
grandes. La ley de los gases ideales debe corregirse para considerar las fuerzas
atractivas y repulsivas. Por ejemplo, la repulsión mutua entre moléculas tiene el
efecto de excluir a las moléculas vecinas de una cierta zona alrededor de cada
molécula. Así, una parte del espacio total deja de estar disponible para las moléculas
en su movimiento aleatorio. En la ecuación de estado, se hace necesario restar este
volumen de exclusión (b) del volumen del recipiente; de ahí el término (v - b).
2
Transiciones de fase
A temperaturas bajas (a las que el movimiento molecular se hace menor) y
presiones altas o volúmenes reducidos (que disminuyen el espacio entre las
moléculas), las moléculas de un gas pasan a ser influidas por la fuerza de atracción
de las otras moléculas. Bajo determinadas condiciones críticas, todo el sistema entra
en un estado ligado de alta densidad y adquiere una superficie límite. Esto implica la
entrada en el estado líquido. El proceso se conoce como transición de fase o cambio
de estado. La ecuación de van der Waals permite estas transiciones de fase, y
también describe una región de coexistencia entre ambas fases que termina en un
punto crítico, por encima del cual no existen diferencias físicas entre los estados
gaseoso y líquido. Estos fenómenos coinciden con las observaciones experimentales.
En la práctica se emplean ecuaciones más complejas que la ecuación de van der
Waals.
La mejor comprensión de las propiedades de los gases a lo largo del último siglo ha
llevado a la explotación a gran escala de los principios de la física, química e
ingeniería en aplicaciones industriales y de consumo.
Véase Átomo; Estados de la materia; Termodinámica.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Calor
1
INTRODUCCIÓN
Calor, en física, transferencia de energía de una parte a otra de un cuerpo, o entre
diferentes cuerpos, en virtud de una diferencia de temperatura. El calor es energía
en tránsito; siempre fluye de una zona de mayor temperatura a una zona de menor
temperatura, con lo que eleva la temperatura de la segunda y reduce la de la
primera, siempre que el volumen de los cuerpos se mantenga constante. La energía
no fluye desde un objeto de temperatura baja a un objeto de temperatura alta si no
se realiza trabajo.
Hasta principios del siglo XIX, el efecto del calor sobre la temperatura de un cuerpo
se explicaba postulando la existencia de una sustancia o forma de materia invisible,
denominada calórico. Según la teoría del calórico, un cuerpo de temperatura alta
contiene más calórico que otro de temperatura baja; el primero cede parte del
calórico al segundo al ponerse en contacto ambos cuerpos, con lo que aumenta la
temperatura de dicho cuerpo y disminuye la suya propia. Aunque la teoría del
calórico explicaba algunos fenómenos de la transferencia de calor, las pruebas
experimentales presentadas por el físico británico Benjamin Thompson en 1798 y por
el químico británico Humphry Davy en 1799 sugerían que el calor, igual que el
trabajo, corresponde a energía en tránsito (proceso de intercambio de energía).
Entre 1840 y 1849, el físico británico James Prescott Joule, en una serie de
experimentos muy precisos, demostró de forma concluyente que el calor es una
transferencia de energía y que puede causar los mismos cambios en un cuerpo que
el trabajo.
2
TEMPERATURA
La sensación de calor o frío al tocar una sustancia depende de su temperatura, de la
capacidad de la sustancia para conducir el calor y de otros factores. Aunque, si se
procede con cuidado, es posible comparar las temperaturas relativas de dos
sustancias mediante el tacto, es imposible evaluar la magnitud absoluta de las
temperaturas a partir de reacciones subjetivas. Cuando se aporta calor a una
sustancia, no sólo se eleva su temperatura, con lo que proporciona una mayor
sensación de calor, sino que se producen alteraciones en varias propiedades físicas
que se pueden medir con precisión. Al variar la temperatura, las sustancias se
dilatan o se contraen, su resistencia eléctrica cambia y, en el caso de un gas, su
presión varía. La variación de alguna de estas propiedades suele servir como base
para una escala numérica precisa de temperaturas (ver más adelante).
La temperatura depende de la energía cinética media (o promedio) de las moléculas
de una sustancia; según la teoría cinética (véase Gas; Termodinámica), la energía
puede corresponder a movimientos rotacionales, vibracionales y traslacionales de las
partículas de una sustancia. La temperatura, sin embargo, sólo depende del
movimiento de traslación de las moléculas. En teoría, las moléculas de una sustancia
no presentarían actividad traslacional alguna a la temperatura denominada cero
absoluto. Véase Molécula.
3
ESCALAS DE TEMPERATURA
En la actualidad se emplean diferentes escalas de temperatura; entre ellas están la
escala Celsius —también conocida como escala centígrada—, la escala Fahrenheit, la
escala Kelvin, la escala Rankine o la escala termodinámica internacional (véase
Termómetro). En la escala Celsius, el punto de congelación del agua equivale a 0 °C
y su punto de ebullición a 100 °C. Esta escala se utiliza en todo el mundo, en
particular en el trabajo científico. La escala Fahrenheit se emplea en los países
anglosajones para medidas no científicas y en ella el punto de congelación del agua
se define como 32 °F y su punto de ebullición como 212 °F. En la escala Kelvin, la
escala termodinámica de temperaturas más empleada, el cero se define como el cero
absoluto de temperatura, es decir, -273,15 °C. La magnitud de su unidad, llamada
kelvin y simbolizada por K, se define como igual a un grado Celsius. Otra escala que
emplea el cero absoluto como punto más bajo es la escala Rankine, en la que cada
grado de temperatura equivale a un grado en la escala Fahrenheit. En la escala
Rankine, el punto de congelación del agua equivale a 492 °R y su punto de ebullición
a 672 °R.
En 1933, científicos de treinta y una naciones adoptaron una nueva escala
internacional de temperaturas, con puntos fijos de temperatura adicionales basados
en la escala Kelvin y en principios termodinámicos. La escala internacional emplea
como patrón un termómetro de resistencia de platino (cable de platino) para
temperaturas entre -190 °C y 660 °C. Desde los 660 °C hasta el punto de fusión del
oro (1.064 °C) se emplea un termopar patrón: los termopares son dispositivos que
miden la temperatura a partir de la tensión producida entre dos alambres de metales
diferentes (véase Termoelectricidad). Más allá del punto de fusión del oro las
temperaturas se miden mediante el llamado pirómetro óptico, que se basa en la
intensidad de la luz de una frecuencia determinada que emite un cuerpo caliente.
En 1954, un acuerdo internacional adoptó el punto triple del agua —es decir, el
punto en que las tres fases del agua (vapor, líquido y sólido) están en equilibrio—
como referencia para la temperatura de 273,16 K. El punto triple se puede
determinar con mayor precisión que el punto de congelación, por lo que supone un
punto fijo más satisfactorio para la escala termodinámica. En criogenia, o
investigación de bajas temperaturas, se han obtenido temperaturas de tan sólo
0,00001 K mediante la desmagnetización de sustancias paramagnéticas. En las
explosiones nucleares (véase Armas nucleares) se han alcanzado momentáneamente
temperaturas evaluadas en más de 100 millones de kelvins.
4
UNIDADES DE CALOR
En las ciencias físicas, la cantidad de calor se expresa en las mismas unidades que la
energía y el trabajo, es decir, en julios. Otra unidad es la caloría, definida como la
cantidad de calor necesaria para elevar la temperatura de 1 gramo de agua a 1
atmósfera de presión desde 15 hasta 16 °C. Esta unidad se denomina a veces
caloría pequeña o caloría gramo para distinguirla de la caloría grande, o kilocaloría,
que equivale a 1.000 calorías y se emplea en nutrición. La energía mecánica se
puede convertir en calor a través del rozamiento, y el trabajo mecánico necesario
para producir 1 caloría se conoce como equivalente mecánico del calor. A una caloría
le corresponden 4,1855 julios. Según la ley de conservación de la energía, todo el
trabajo mecánico realizado para producir calor por rozamiento aparece en forma de
energía en los objetos sobre los que se realiza el trabajo. Joule fue el primero en
demostrarlo de forma fehaciente en un experimento clásico: calentó agua en un
recipiente cerrado haciendo girar unas ruedas de paletas y halló que el aumento de
temperatura del agua era proporcional al trabajo realizado para mover las ruedas.
Cuando el calor se convierte en energía mecánica, como en un motor de combustión
interna, la ley de conservación de la energía también es válida. Sin embargo,
siempre se pierde o disipa energía en forma de calor porque ningún motor tiene una
eficiencia perfecta. Véase Caballo de vapor.
5
CALOR LATENTE
El cambio de temperatura de una sustancia conlleva una serie de cambios físicos.
Casi todas las sustancias aumentan de volumen al calentarse y se contraen al
enfriarse. El comportamiento del agua entre 0 y 4 °C constituye una importante
excepción a esta regla (véase Hielo). Se denomina fase de una sustancia a su
estado, que puede ser sólido, líquido o gaseoso. Los cambios de fase en sustancias
puras tienen lugar a temperaturas y presiones definidas (véase Regla de las fases).
El paso de sólido a gas se denomina sublimación, de sólido a líquido fusión, y de
líquido a vapor vaporización. Si la presión es constante, estos procesos tienen lugar a
una temperatura constante. La cantidad de calor necesaria para producir un cambio
de fase se llama calor latente; existen calores latentes de sublimación, fusión y
vaporización (véase Destilación; Evaporación). Si se hierve agua en un recipiente
abierto a la presión de 1 atmósfera, la temperatura no aumenta por encima de los
100 °C por mucho calor que se suministre. El calor que se absorbe sin cambiar la
temperatura del agua es el calor latente; no se pierde, sino que se emplea en
transformar el agua en vapor y se almacena como energía en el vapor. Cuando el
vapor se condensa para formar agua, esta energía vuelve a liberarse (véase
Condensación). Del mismo modo, si se calienta una mezcla de hielo y agua, su
temperatura no cambia hasta que se funde todo el hielo. El calor latente absorbido
se emplea para vencer las fuerzas que mantienen unidas las partículas de hielo, y se
almacena como energía en el agua. Para fundir 1 kg de hielo se necesitan 19.000
julios, y para convertir 1 kg de agua en vapor a 100 °C, hacen falta 129.000 julios.
6
CALOR ESPECÍFICO
La cantidad de calor necesaria para aumentar en un grado la temperatura de una
unidad de masa de una sustancia se conoce como calor específico. Si el
calentamiento se produce manteniendo constante el volumen de la sustancia o su
presión, se habla de calor específico a volumen constante o a presión constante. En
todas las sustancias, el primero siempre es menor o igual que el segundo. El calor
específico del agua a 15 °C es de 4.185,5 julios por kilogramo y grado Celsius. En el
caso del agua y de otras sustancias prácticamente incompresibles, no es necesario
distinguir entre los calores específicos a volumen constante y presión constante ya
que son aproximadamente iguales. Generalmente, los dos calores específicos de una
sustancia dependen de la temperatura.
Véase también Calorimetría.
7
TRANSFERENCIA DE CALOR
Los procesos físicos por los que se produce la transferencia de calor son la
conducción y la radiación. Un tercer proceso, que también implica el movimiento de
materia, se denomina convección. La conducción requiere contacto físico entre los
cuerpos —o las partes de un cuerpo— que intercambian calor, pero en la radiación
no hace falta que los cuerpos estén en contacto ni que haya materia entre ellos. La
convección se produce a través del movimiento de un líquido o un gas en contacto
con un cuerpo de temperatura diferente.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Calorimetría
Calorimetría, ciencia que mide la cantidad de energía generada en procesos de
intercambio de calor. El calorímetro es el instrumento que mide dicha energía. El tipo
de calorímetro de uso más extendido consiste en un envase cerrado y perfectamente
aislado con agua, un dispositivo para agitar y un termómetro. Se coloca una fuente
de calor en el calorímetro, se agita el agua hasta lograr el equilibrio, y el aumento de
temperatura se comprueba con el termómetro. Si se conoce la capacidad calorífica
del calorímetro (que también puede medirse utilizando una fuente corriente de
calor), la cantidad de energía liberada puede calcularse fácilmente. Cuando la fuente
de calor es un objeto caliente de temperatura conocida, el calor específico y el calor
latente pueden ir midiéndose según se va enfriando el objeto. El calor latente, que
no está relacionado con un cambio de temperatura, es la energía térmica
desprendida o absorbida por una sustancia al cambiar de un estado a otro, como en
el caso de líquido a sólido o viceversa. Cuando la fuente de calor es una reacción
química, como sucede al quemar un combustible, las sustancias reactivas se colocan
en un envase de acero pesado llamado bomba. Esta bomba se introduce en el
calorímetro y la reacción se provoca por ignición, con ayuda de una chispa eléctrica.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Estados de la materia
Estados de la materia, en física clásica, las tres formas que puede tomar la materia:
sólido, líquido o gas. El plasma, un conjunto de partículas gaseosas eléctricamente
cargadas, con cantidades aproximadamente iguales de iones positivos y negativos,
se considera a veces un cuarto estado de la materia (véase Ion; Ionización). Los
sólidos se caracterizan por su resistencia a cualquier cambio de forma, resistencia
que se debe a la fuerte atracción entre las moléculas que los constituyen. En estado
líquido, la materia cede a las fuerzas tendentes a cambiar su forma porque sus
moléculas pueden moverse libremente unas respecto de otras (véase Molécula). Los
líquidos, sin embargo, presentan una atracción molecular suficiente para resistirse a
las fuerzas que tienden a cambiar su volumen. Los gases, en los que las moléculas
están muy dispersas y se mueven libremente, no ofrecen ninguna resistencia a los
cambios de forma y muy poca a los cambios de volumen. Como resultado, un gas no
confinado tiende a difundirse indefinidamente, aumentando su volumen y
disminuyendo su densidad.
La mayoría de las sustancias son sólidas a temperaturas bajas, líquidas a
temperaturas medias y gaseosas a temperaturas altas, pero los estados no siempre
están claramente diferenciados. La temperatura en la que una sustancia pasa del
estado sólido al líquido se denomina punto de fusión, y la temperatura a la que pasa
del estado líquido al gaseoso punto de ebullición (véase Punto de solidificación). El
rango de temperaturas de los puntos de fusión y ebullición es muy amplio. El helio
permanece en estado gaseoso por encima de -269 ºC y el wolframio, hasta
aproximadamente 3.370 ºC, es un sólido.
Para una discusión más detallada de las propiedades de la materia en sus diferentes
estados, véase Átomo; Cristal; Fluido; Vidrio; Cristal líquido; Termodinámica; Vapor;
Punto crítico; Criogenia.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Punto de solidificación
Punto de solidificación o Punto de congelación, temperatura a la que un líquido
sometido a una presión determinada se transforma en sólido.
El punto de solidificación de un líquido puro (no mezclado) es en esencia el mismo
que el punto de fusión de la misma sustancia en su estado sólido, y se puede definir
como la temperatura a la que el estado sólido y el estado líquido de una sustancia se
encuentran en equilibrio. Si aplicamos calor a una mezcla de sustancia sólida y
líquida en su punto de solidificación, la temperatura de la sustancia permanecerá
constante hasta su licuación total, ya que el calor se absorbe, no para calentar la
sustancia, sino para aportar el calor latente de la fusión. Del mismo modo, si se
sustrae el calor de una mezcla de sustancia sólida y líquida en su punto de
solidificación, la sustancia permanecerá a la misma temperatura hasta solidificarse
completamente, pues el calor es liberado por la sustancia en su proceso de
transformación de líquido a sólido. Así, el punto de solidificación o el punto de fusión
de una sustancia pura puede definirse como la temperatura a la que la solidificación
o fusión continúan una vez comenzado el proceso.
Todos los sólidos se funden al calentarse y alcanzar sus respectivos puntos de fusión,
pero la mayoría de los líquidos pueden permanecer en este estado aunque se enfríen
por debajo de su punto de solidificación. Un líquido puede permanecer en este estado
de sobreenfriamiento durante cierto tiempo. Este fenómeno se explica por la teoría
molecular, que define a las moléculas de los sólidos como moléculas ordenadas, y a
las de los líquidos, desordenadas. Para que un líquido se solidifique, necesita tener
un núcleo (un punto de orden molecular) alrededor del cual puedan cristalizar las
moléculas desordenadas. La formación de un núcleo depende del azar, pero una vez
formado, el líquido sobreenfriado se solidificará rápidamente. El punto de
solidificación de una disolución es más bajo que el punto de solidificación del
disolvente puro antes de la introducción del soluto (sustancia disuelta).
La cantidad a la que desciende el punto de solidificación depende de la concentración
molecular del soluto y de que la disolución sea un electrólito. Las disoluciones no
electrolíticas tienen puntos de solidificación más altos, en una concentración dada de
soluto, que los electrólitos. La masa molecular de una sustancia desconocida o no
identificada puede determinarse midiendo la cantidad que desciende el punto de
solidificación de un disolvente, cuando se disuelve en él una cantidad conocida de la
sustancia no identificada. Este proceso que determina las masas moleculares se
denomina crioscopía.
En aleaciones y sustancias mezcladas, el punto de solidificación de la mezcla puede
llegar a ser mucho más bajo que los puntos de solidificación de cualquiera de sus
componentes.
El punto de solidificación de la mayoría de las sustancias puede elevarse aumentando
la presión. No obstante, en sustancias que se expanden al solidificarse (como el
agua), la presión rebaja el punto de solidificación. Un ejemplo de esto último puede
observarse si colocamos un objeto pesado en un bloque de hielo. La zona
inmediatamente debajo del objeto comenzará a licuarse, volviendo a solidificarse al
retirar el objeto, sin que se produzca variación de temperatura. Este proceso se
conoce como rehielo.
Veáse también Criogenia; Cristal.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Punto de ebullición
Punto de ebullición, temperatura a la que la presión de vapor de un líquido se iguala
a la presión atmosférica existente sobre dicho líquido. A temperaturas inferiores al
punto de ebullición (p.e.), la evaporación tiene lugar únicamente en la superficie del
líquido. Durante la ebullición se forma vapor en el interior del líquido, que sale a la
superficie en forma de burbujas, con el característico hervor tumultuoso de la
ebullición. Cuando el líquido es una sustancia simple o una mezcla azeotrópica,
continúa hirviendo mientras se le aporte calor, sin aumentar la temperatura; esto
quiere decir que la ebullición se produce a una temperatura y presión constantes con
independencia de la cantidad de calor aplicada al líquido.
Cuando se aumenta la presión sobre un líquido, el p.e. aumenta. El agua, sometida a
una presión de 1 atmósfera (101.325 pascales), hierve a 100 °C, pero a una presión
de 217 atmósferas el p.e. alcanza su valor máximo, 374 °C. Por encima de esta
temperatura, (la temperatura crítica del agua) el agua en estado líquido es idéntica
al vapor saturado.
Al reducir la presión sobre un líquido, baja el valor del p.e. A mayores alturas, donde
la presión es menor, el agua hierve por debajo de 100 °C. Si la presión sobre una
muestra de agua desciende a 6 pascales, la ebullición tendrá lugar a 0 °C.
Los puntos de ebullición se dan dentro de un amplio margen de temperaturas. El p.e.
más bajo es el del helio, -268,9 °C; el más alto es probablemente el del volframio,
unos 5.900 °C. Los puntos de ebullición correspondientes a los distintos elementos y
compuestos que se citan en sus respectivos artículos, se refieren a la presión
atmosférica normal, a no ser que se especifique otra distinta.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Sonido
1
INTRODUCCIÓN
Sonido, fenómeno físico que estimula el sentido del oído. En los seres humanos, esto
ocurre siempre que una vibración con frecuencia comprendida entre unos 15 y
20.000 hercios llega al oído interno. El hercio (Hz) es una unidad de frecuencia que
corresponde a un ciclo por segundo. Estas vibraciones llegan al oído interno
transmitidas a través del aire, y a veces se restringe el término “sonido” a la
transmisión en este medio. Sin embargo, en la física moderna se suele extender el
término a vibraciones similares en medios líquidos o sólidos. Los sonidos con
frecuencias superiores a unos 20.000 Hz se denominan ultrasonidos. Véase
Ultrasónica.
Este artículo se ocupa de este campo de la física en líneas generales. Para lo relativo
a la ciencia arquitectónica del diseño de estancias y edificios con propiedades
adecuadas de propagación y recepción del sonido, véase Acústica. Para lo relativo a
la naturaleza del proceso fisiológico de la audición de sonidos y la anatomía del
mecanismo de audición en personas y animales, véase Oído. En cuanto a las
propiedades generales de la producción y propagación de ondas vibracionales, entre
ellas las ondas de sonido, véase Movimiento ondulatorio; Oscilación.
En general, las ondas pueden propagarse de forma transversal o longitudinal. En
ambos casos, sólo la energía y la cantidad de movimiento del movimiento
ondulatorio se propagan en el medio; ninguna parte del propio medio se mueve
físicamente a una gran distancia. Por ejemplo, imaginemos que atamos firmemente
una cuerda a un poste por un extremo, la estiramos sin tensarla del todo y
sacudimos el otro extremo. Una onda se desplazará por la cuerda hacia el poste,
donde se reflejará y volverá hacia la mano. En realidad, ninguna parte de la cuerda
se mueve longitudinalmente hacia el poste, pero todas las partes de la cuerda se
mueven transversalmente. Este tipo de movimiento ondulatorio se denomina onda
transversal. Del mismo modo, si tiramos una piedra a un estanque, una serie de
ondas transversales se propaga desde el punto de impacto. Un corcho que flote cerca
de dicho punto se moverá hacia arriba y hacia abajo, es decir, de forma transversal a
la dirección del movimiento ondulatorio, pero apenas mostrará movimiento
longitudinal. En cambio, una onda de sonido es una onda longitudinal. A medida que
la energía del movimiento ondulatorio se propaga alejándose del centro de la
perturbación, las moléculas de aire individuales que transmiten el sonido se mueven
hacia delante y hacia atrás, de forma paralela a la dirección del movimiento
ondulatorio. Por tanto, una onda de sonido es una serie de compresiones y
enrarecimientos sucesivos del aire. Cada molécula individual transmite la energía a
las moléculas vecinas, pero una vez que pasa la onda de sonido, las moléculas
permanecen más o menos en la misma posición.
2
CARACTERÍSTICAS FÍSICAS
Cualquier sonido sencillo, como una nota musical, puede describirse en su totalidad
especificando tres características de su percepción: el tono, la intensidad y el timbre.
Estas características corresponden exactamente a tres características físicas: la
frecuencia, la amplitud y la composición armónica o forma de onda. El ruido es un
sonido complejo, una mezcla de diferentes frecuencias o notas sin relación armónica.
1
Frecuencia
Existen distintos métodos para producir sonido de una frecuencia deseada. Por
ejemplo, un sonido de 440 Hz puede crearse alimentando un altavoz con un oscilador
sintonizado a esa frecuencia (véase Grabación de sonido y reproducción). También
puede interrumpirse un chorro de aire mediante una rueda dentada con 44 dientes
que gire a 10 revoluciones por segundo; este método se emplea en las sirenas. Los
sonidos de un altavoz y una sirena de la misma frecuencia tendrán un timbre muy
diferente, pero su tono será el mismo, equivalente al la situado sobre el do central
en un piano. El siguiente la del piano, la nota situada una octava por encima, tiene
una frecuencia de 880 Hz. Las notas situadas una y dos octavas por debajo tienen
frecuencias de 220 y 110 Hz respectivamente. Por definición, una octava es el
intervalo entre dos notas cuyas frecuencias tienen una relación de uno a dos.
Una ley fundamental de la armonía afirma que dos notas separadas por una octava
producen una combinación eufónica cuando suenan simultáneamente. Cuando el
intervalo es de una quinta o de una tercera mayor, la combinación es
progresivamente menos eufónica. En física, un intervalo de una quinta implica que la
relación de las frecuencias de ambas notas es de tres a dos; en una tercera mayor,
la relación es de cinco a cuatro. La ley de la armonía afirma que dos o más notas
producen un sonido eufónico al sonar de forma simultánea si la relación entre sus
frecuencias corresponde a números enteros pequeños; si las frecuencias no
presentan dichas relaciones, se produce una disonancia. En un instrumento de tonos
fijos, como un piano, no es posible establecer las notas de forma que todas estas
relaciones sean exactas, por lo que al afinarlo es necesario un cierto compromiso de
acuerdo con el sistema de tonos medios o escala temperada.
2
Amplitud
La amplitud de una onda de sonido es el grado de movimiento de las moléculas de
aire en la onda, que corresponde a la intensidad del enrarecimiento y compresión
que la acompañan. Cuanto mayor es la amplitud de la onda, más intensamente
golpean las moléculas el tímpano y más fuerte es el sonido percibido. La amplitud de
una onda de sonido puede expresarse en unidades absolutas midiendo la distancia
de desplazamiento de las moléculas del aire, o la diferencia de presiones entre la
compresión y el enrarecimiento, o la energía transportada. Por ejemplo, la voz
normal presenta una potencia de sonido de aproximadamente una cienmilésima de
vatio. Sin embargo, todas esas medidas son muy difíciles de realizar, y la intensidad
de los sonidos suele expresarse comparándolos con un sonido patrón; en ese caso, la
intensidad se expresa en decibelios (ver el apartado “Sensaciones de tono” más
adelante).
3
Intensidad
La distancia a la que se puede oír un sonido depende de su intensidad, que es el flujo
medio de energía por unidad de área perpendicular a la dirección de propagación. En
el caso de ondas esféricas que se propagan desde una fuente puntual, la intensidad
es inversamente proporcional al cuadrado de la distancia, suponiendo que no se
produzca ninguna pérdida de energía debido a la viscosidad, la conducción térmica u
otros efectos de absorción. Por ejemplo, en un medio perfectamente homogéneo, un
sonido será nueve veces más intenso a una distancia de 100 metros que a una
distancia de 300 metros. En la propagación real del sonido en la atmósfera, los
cambios de propiedades físicas del aire como la temperatura, presión o humedad
producen la amortiguación y dispersión de las ondas sonoras, por lo que
generalmente la ley del inverso del cuadrado no se puede aplicar a las medidas
directas de la intensidad del sonido.
4
Timbre
Si se toca el la situado sobre el do central en un violín, un piano y un diapasón, con
la misma intensidad en los tres casos, los sonidos son idénticos en frecuencia y
amplitud, pero muy diferentes en timbre. De las tres fuentes, el diapasón es el que
produce el tono más sencillo, que en este caso está formado casi exclusivamente por
vibraciones con frecuencias de 440 Hz. Debido a las propiedades acústicas del oído y
las propiedades de resonancia de su membrana vibrante, es dudoso que un tono
puro llegue al mecanismo interno del oído sin sufrir cambios. La componente
principal de la nota producida por el piano o el violín también tiene una frecuencia de
440 Hz. Sin embargo, esas notas también contienen componentes con frecuencias
que son múltiplos exactos de 440 Hz, los llamados tonos secundarios, como 880,
1.320 o 1.760 Hz. Las intensidades concretas de esas otras componentes, los
llamados armónicos, determinan el timbre de la nota.
5
Velocidad del sonido
La frecuencia de una onda de sonido es una medida del número de vibraciones por
segundo de un punto determinado. La distancia entre dos compresiones o dos
enrarecimientos sucesivos de la onda se denomina longitud de onda. El producto de
la longitud de onda y la frecuencia es igual a la velocidad de propagación de la onda,
que es la misma para sonidos de cualquier frecuencia (cuando el sonido se propaga
por el mismo medio a la misma temperatura). Por ejemplo, la longitud de onda del la
situado sobre el do central es de unos 78,2 cm, y la del la situado por debajo del do
central es de unos 156,4 centímetros.
La velocidad de propagación del sonido en aire seco a una temperatura de 0 °C es de
331,6 m/s. Al aumentar la temperatura aumenta la velocidad del sonido; por
ejemplo, a 20 °C, la velocidad es de 344 m/s. Los cambios de presión a densidad
constante no tienen prácticamente ningún efecto sobre la velocidad del sonido. En
muchos otros gases, la velocidad sólo depende de su densidad. Si las moléculas son
pesadas, se mueven con más dificultad, y el sonido avanza más despacio por el
medio. Por ejemplo, el sonido avanza ligeramente más deprisa en aire húmedo que
en aire seco, porque el primero contiene un número mayor de moléculas más ligeras.
En la mayoría de los gases, la velocidad del sonido también depende de otro factor,
el calor específico, que afecta a la propagación de las ondas de sonido.
Generalmente, el sonido se mueve a mayor velocidad en líquidos y sólidos que en
gases. Tanto en los líquidos como en los sólidos, la densidad tiene el mismo efecto
que en los gases; la velocidad del sonido varía de forma inversamente proporcional a
la raíz cuadrada de la densidad. La velocidad también varía de forma proporcional a
la raíz cuadrada de la elasticidad. Por ejemplo, la velocidad del sonido en agua es de
unos 1.500 m/s a temperaturas ordinarias, pero aumenta mucho cuando sube la
temperatura. La velocidad del sonido en el cobre es de unos 3.500 m/s a
temperaturas normales y decrece a medida que aumenta la temperatura (debido a la
disminución de la elasticidad). En el acero, más elástico, el sonido se desplaza a unos
5.000 m/s; su propagación es muy eficiente.
6
Refracción, reflexión e interferencias
El sonido avanza en línea recta cuando se desplaza en un medio de densidad
uniforme. Sin embargo, igual que la luz, el sonido está sometido a la refracción, es
decir, la desviación de las ondas de sonido de su trayectoria original (Véase Óptica).
En las regiones polares, por ejemplo, donde el aire situado cerca del suelo es más
frío que el de las capas más altas, una onda de sonido ascendente que entra en la
región más caliente, donde el sonido avanza a más velocidad, se desvía hacia abajo
por la refracción. La excelente recepción del sonido a favor del viento y la mala
recepción en contra del viento también se deben a la refracción. La velocidad del aire
suele ser mayor en las alturas que cerca del suelo; una onda de sonido ascendente
que avanza a favor del viento se desvía hacia el suelo, mientras que una onda similar
que se mueve en contra del viento se desvía hacia arriba, por encima de la persona
que escucha.
El sonido también se ve afectado por la reflexión, y cumple la ley fundamental de
que el ángulo de incidencia es igual al ángulo de reflexión. Un eco es el resultado de
la reflexión del sonido. El sonar se basa en la reflexión de los sonidos propagados en
agua. Una bocina es un tubo cónico que forma un haz de ondas de sonido reflejando
algunos de los rayos divergentes en los lados del tubo. Un tubo similar puede
recoger ondas de sonido si se dirige el extremo ancho hacia la fuente de sonido.
El sonido también experimenta difracción e interferencia. Si el sonido de una única
fuente llega a un oyente por dos trayectorias diferentes —por ejemplo, una directa y
otra reflejada—, los dos sonidos pueden reforzarse; sin embargo, si no están en fase
pueden interferir de forma que el sonido resultante sea menos intenso que el sonido
directo sin reflexión. Las trayectorias de interferencia son distintas para sonidos de
diferentes frecuencias, con lo que la interferencia produce distorsión en sonidos
complejos. Dos sonidos de distintas frecuencias pueden combinarse para producir un
tercer sonido cuya frecuencia es igual a la suma o diferencia de las dos frecuencias
originales.
3
SENSACIONES DE TONO
Si se practica una audimetría a una persona joven normal, se comprueba que su oído
es sensible a todos los sonidos entre 15-20 hercios y 15.000-20.000 hercios. El oído
de las personas mayores es menos agudo, sobre todo en las frecuencias más
elevadas. El oído es especialmente sensible en la gama que va desde el la situado
por encima del do central hasta el la que está cuatro octavas por encima; en esa
zona, una persona puede percibir un sonido cientos de veces más débil que una
octava por encima o dos octavas por debajo. El grado en que un oído sensible puede
distinguir entre dos notas puras que difieran ligeramente en intensidad o frecuencia
varía en los diferentes rangos de intensidad y frecuencia de los tonos. En sonidos de
intensidad moderada situados en el rango de frecuencia para el que el oído es más
sensible (entre 1.000 y 2.000 Hz aproximadamente), es posible distinguir una
diferencia de intensidad de un 20% (1 decibelio, o dB) y una diferencia en frecuencia
de un 0,33% (alrededor de una vigésima de nota). En este mismo rango, la
diferencia entre el sonido más tenue que puede oírse y el sonido más fuerte que
puede distinguirse como tal sonido (los sonidos más fuertes se “sienten”, o perciben,
como estímulos dolorosos) es de unos 120 decibelios: una diferencia de intensidad
de aproximadamente un billón de veces.
Todas estas pruebas de sensibilidad se refieren a tonos puros, como los producidos
por un oscilador electrónico. Incluso para esos tonos puros, el oído es imperfecto.
Dos notas con frecuencia idéntica pero una gran diferencia de intensidad pueden
aparentar una ligera diferencia de tono. Más importante resulta la diferencia en las
intensidades relativas aparentes en las distintas frecuencias. A intensidades altas, el
oído es aproximadamente igual de sensible a la mayoría de las frecuencias, pero a
bajas intensidades el oído es mucho más sensible a las frecuencias medias que a las
extremas. Por tanto, un equipo de reproducción de sonido que funciona
perfectamente parecerá no reproducir las notas más graves y agudas si se reduce
mucho la intensidad.
1
Tres tipos de sonido importantes
En la voz, la música y el ruido, es raro escuchar un tono puro. Una nota musical
contiene, además de la frecuencia fundamental, tonos más agudos que son
armónicos de la misma. La voz contiene una mezcla compleja de sonidos, de los que
algunos (pero no todos) guardan una relación armónica entre sí. El ruido está
formado por una mezcla de muchas frecuencias diferentes dentro de un determinado
rango; por tanto, puede compararse con la luz blanca, que se compone de una
mezcla de luces de los distintos colores. Los distintos ruidos se distinguen por sus
diferentes distribuciones de energía en los distintos rangos de frecuencias ( véase
Espectro).
Cuando se transmite al oído un tono musical que contiene determinados armónicos
del tono fundamental, pero carece de otros armónicos o del propio tono
fundamental, el oído forma diferentes “batidos” o pulsaciones cuya frecuencia es la
suma o la diferencia de los sonidos originales, con lo que producen los armónicos que
faltan o el tono fundamental que no figura en el sonido original. Estas notas también
son armónicos de la nota fundamental original. Esta respuesta incorrecta del oído
puede resultar útil. Por ejemplo, un equipo reproductor de sonido sin un altavoz
grande no puede producir sonidos de tono más grave que el do situado dos octavas
por debajo del do central; sin embargo, el oído de una persona que escuche ese
equipo puede proporcionar la nota fundamental a partir de las frecuencias de batido
de sus armónicos. Otra imperfección del oído ante los sonidos ordinarios es la
incapacidad de oír notas de alta frecuencia cuando existen sonidos de baja frecuencia
de intensidad considerable. Este fenómeno se denomina enmascaramiento.
En general, para que se entienda el habla y se comprenda satisfactoriamente un
tema musical basta reproducir las frecuencias entre 250 y 3.000 Hz (el rango de
frecuencias de un teléfono normal), aunque algunos sonidos —como la zeta—
requieren frecuencias de hasta 6.000 Hz. Sin embargo, para que el efecto sea
natural hay que reproducir el rango que va aproximadamente de 100 a 10.000 Hz.
Los sonidos generados por unos pocos instrumentos musicales sólo pueden
reproducirse con naturalidad con frecuencias algo más bajas, y algunos ruidos
necesitan frecuencias más altas.
En cuanto a la conversión de ondas de sonido en ondas eléctricas y viceversa, véase
Micrófono; Teléfono.
4
PERSPECTIVA HISTÓRICA
Los pueblos antiguos efectuaron numerosas especulaciones sobre los fenómenos
elementales del sonido; sin embargo, con la excepción de unas pocas suposiciones
que resultaron ser ciertas, la ciencia del sonido no empezó a desarrollarse hasta
aproximadamente 1600 d.C. A partir de aquella época, el conocimiento del sonido
avanzó con más rapidez que el conocimiento de los fenómenos luminosos
correspondientes, ya que estos últimos son más difíciles de observar y medir.
A los antiguos griegos no les preocupaba demasiado el estudio científico del sonido,
pero estaban muy interesados por la música, y consideraban que representaba los
“números aplicados”, frente a la aritmética, que representaba los “números puros”.
El filósofo Pitágoras descubrió que una octava corresponde a una relación de
frecuencias de dos a uno, y enunció la ley que vincula la consonancia a las relaciones
numéricas; posteriormente construyó todo un edificio de especulaciones místicas en
torno a esa ley. Aristóteles, en unas breves observaciones sobre el sonido, realizó
una suposición bastante acertada sobre la naturaleza de su generación y
transmisión. Sin embargo, no se efectuaron estudios experimentales válidos hasta
1600, cuando Galileo llevó a cabo un estudio científico del sonido y enunció muchas
de sus leyes fundamentales. Galileo determinó la relación entre tono y frecuencia, y
unas leyes musicales de armonía y disonancia que eran, en esencia, las que se han
descrito en este artículo. También explicó de forma teórica cómo la frecuencia
natural de vibración de una cuerda tensa, y por tanto la frecuencia de los sonidos
producidos por un instrumento de cuerda, depende de la longitud, peso y tensión de
la cuerda.
1
Los siglos XVII y XVIII
El matemático francés Marin Mersenne realizó medidas cuantitativas en relación con
el sonido al hallar el tiempo de retorno de un eco y calcular un valor de la velocidad
del sonido que difería del valor real en menos del 10%. Mersenne también fue el
primero en medir de forma aproximada la frecuencia de una nota de tono
determinado. Midió la frecuencia de vibración de un cable largo y pesado cuyo
movimiento era tan lento que podía seguirse a simple vista; después, a partir de
consideraciones teóricas, calculó la frecuencia de un cable corto y ligero que producía
un sonido audible.
En 1660, el científico inglés de origen irlandés Robert Boyle demostró que el sonido
necesitaba un medio gaseoso, líquido o sólido para su transmisión. Boyle colgó una
campana de una cuerda en el vacío y mostró que, aunque podía verse cómo el
badajo golpeaba la campana, no se oía ningún sonido.
El matemático y físico británico Isaac Newton fue el primero en realizar un
tratamiento matemático del sonido en sus Principios matemáticos de la filosofía
natural (1687). Una vez demostrado que la propagación del sonido a través de
cualquier fluido sólo dependía de propiedades físicas medibles del fluido, como la
elasticidad o la densidad, Newton calculó a partir de consideraciones teóricas la
velocidad del sonido en el aire.
El siglo XVIII fue sobre todo un periodo de desarrollo teórico. El cálculo supuso una
potente herramienta nueva para científicos de muchos campos. Los matemáticos
franceses Jean le Rond d'Alembert y Joseph Louis Lagrange y los matemáticos suizos
Johann Bernoulli y Leonhard Euler contribuyeron al conocimiento de cuestiones como
el tono y el timbre del sonido producido por un instrumento musical determinado, o
la velocidad y naturaleza de la transmisión del sonido en diferentes medios. Sin
embargo, el tratamiento matemático completo del sonido requiere el análisis
armónico, desarrollado por el matemático francés Joseph Fourier en 1822 y aplicado
al sonido por el físico alemán Georg Simon Ohm.
Las variaciones de sonido denominadas “batidos”, una consecuencia de la naturaleza
ondulatoria del sonido, fueron descubiertas en torno a 1740 por el violinista italiano
Giuseppe Tartini y el organista alemán Georg Sorge. El físico alemán Ernst Chladni
realizó numerosos descubrimientos sobre el sonido a finales del siglo XVIII, sobre
todo en relación con la vibración de cuerdas y varillas.
2
Siglos XIX y XX
El siglo XIX supuso, sobre todo, una era de desarrollo experimental. Las primeras
medidas precisas de la velocidad del sonido en el agua fueron llevadas a cabo en
1826 por el matemático francés Jacques-Charles-François Sturm, y a lo largo del
siglo se realizaron numerosos experimentos para determinar con extremada
precisión la velocidad de sonidos de diferentes frecuencias en distintos medios. La ley
fundamental que dice que la velocidad es la misma para sonidos de cualquier
frecuencia y depende de la densidad y elasticidad del medio quedó establecida en
dichos experimentos.
Durante el siglo XIX se emplearon en el estudio del sonido aparatos como el
estroboscopio, el fonendoscopio o la sirena. En este siglo se dedicó también mucho
interés al establecimiento de un patrón de tono. La primera sugerencia de un patrón
la realizó el físico francés Joseph Sauveur alrededor de 1700. Sauveur propuso que el
do equivaliera a 256 Hz, un patrón cómodo desde el punto de vista matemático (al
ser una potencia de dos). El físico alemán Johann Heinrich Scheibler llevó a cabo la
primera determinación precisa de la frecuencia de un tono, y en 1834 propuso como
patrón que el la equivaliera a 440 Hz. En 1859, el gobierno francés decretó que el
patrón para el la fuera de 435 Hz, según las investigaciones del físico francés Jules
Antoine Lissajous. Este patrón se aceptó en muchas regiones del mundo hasta bien
entrado el siglo XX.
En el siglo XIX se inventaron el teléfono, el micrófono y diversos tipos de gramófono,
todos ellos muy útiles para el estudio del sonido. En el siglo XX, los físicos
dispusieron por primera vez de instrumentos que hacían posible un estudio sencillo,
preciso y cuantitativo del sonido. Mediante osciladores electrónicos pueden
producirse ondas electromagnéticas de cualquier tipo y convertirlas en sonido
mediante sistemas electromagnéticos o piezoeléctricos (véase Electrónica). En
sentido inverso, es posible convertir los sonidos en corrientes eléctricas mediante un
micrófono, amplificarlas electrónicamente sin distorsión y analizarlas mediante un
osciloscopio de rayos catódicos. Las técnicas modernas permiten grabar y reproducir
el sonido con una fidelidad extremadamente elevada.
En la I Guerra Mundial, las necesidades militares llevaron a emplear por primera vez
el sonar para la detección de submarinos, que hoy también se emplea para estudiar
las corrientes y capas oceánicas y para realizar mapas de los fondos marinos. En la
actualidad, las ondas de sonido de frecuencias muy elevadas (ultrasonidos) se
emplean en numerosas aplicaciones técnicas y médicas.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.
Barrera del sonido
1
INTRODUCCIÓN
Barrera del sonido, término que se refiere a los efectos de compresibilidad
experimentados por los aviones supersónicos cuando su velocidad con respecto al
aire se aproxima a la velocidad local del sonido (1.223 km/h a nivel del mar en
condiciones normales).
2
CHOQUE DE COMPRESIBILIDAD
Estos efectos de compresibilidad se producen cuando un cuerpo —por ejemplo, una
aeronave— alcanza una velocidad suficiente para romper el flujo normal de las
moléculas de aire que se apartan para dejar paso al objeto que se aproxima. A esas
velocidades, las moléculas de aire situadas en la trayectoria del objeto y en las
inmediaciones no reciben la ‘advertencia’ de la llegada del objeto con suficiente
antelación para poder apartarse de forma ordenada, y son sometidas a un
desplazamiento violento. Esta ruptura en la fluidez del flujo de aire se produce
porque el medio normal de ‘advertencia’ son las ondas de presión, que viajan a la
velocidad local del sonido, y en este caso son adelantadas por el objeto en
movimiento. Este efecto, conocido como choque de compresibilidad, provoca
cambios importantes en la distribución de presiones, densidades y temperaturas del
aire alrededor del cuerpo en movimiento. La velocidad local del sonido varía
significativamente, y disminuye —aunque de forma errática— al aumentar la altitud
sobre la superficie terrestre. Por ejemplo, mientras que la velocidad local del sonido
es de unos 1.220 km/h al nivel del mar, cae hasta aproximadamente 1.060 km/h a
11.000 m de altitud, tras lo que permanece constante hasta los 18.000 metros.
El llamado ‘número de Mach‘ es la velocidad de un proyectil o avión con respecto al
medio que lo rodea, dividida entre la velocidad del sonido en ese mismo medio y
bajo las mismas condiciones. Por tanto, a nivel del mar y en condiciones normales de
humedad y temperatura, una velocidad de 1.223 km/h representa un número de
Mach de 1, y se designaría por ‘Mach 1’. Esta misma velocidad en la estratosfera
correspondería a Mach 1,16, debido a las diferencias de densidad, presión y
temperatura a mayores altitudes. Al indicar las velocidades por su número de Mach
en lugar de hacerlo en kilómetros por hora, puede obtenerse una representación más
adecuada de las condiciones reales del vuelo.
3
HISTORIA
Las investigaciones aerodinámicas realizadas en la década de 1930 no lograron
producir un avión capaz de entrar en la región de compresibilidad. Además, durante
los años siguientes, las industrias aeronáuticas de todo el mundo pasaron de
desarrollar nuevos modelos a fabricar en masa versiones mínimamente modificadas
de sus diseños existentes, ya que la proximidad de la guerra hizo que los gobiernos
exigieran mayores niveles de producción.
1
La década de 1940
Esto no quiere decir que no se produjeran avances: en Estados Unidos, los esfuerzos
para producir un motor radial de 2.000 caballos culminaron con éxito en 1940. En
Alemania, en agosto de 1939 ya se había probado en vuelo un reactor experimental
propulsado por un motor de reacción HE-2B desarrollado por el ingeniero aeronáutico
Ernst Heinkel. No hubo demasiados signos de avances aerodinámicos comparables
fuera de Alemania, donde se estaba estudiando la idea de alas en flecha de sección
delgada como método para retrasar la aparición de efectos de compresibilidad.
El principal obstáculo al que se enfrentaban los expertos en aerodinámica —que no
sería resuelto hasta finales de la década de 1940— residía en la incapacidad de
construir un túnel aerodinámico capaz de proporcionar resultados precisos para
velocidades situadas en la zona de compresibilidad o próximas a la misma. En
ausencia de ese tipo de datos, los diseñadores de aviones de gran velocidad se
limitaron a seguir produciendo versiones cada vez más depuradas de los diseños
tradicionales, dotadas de versiones cada vez más potentes de los motores
tradicionales.
En 1944 se vino a unir a los cazas de hélice la primera generación de aviones de
reacción. Aparte de volar a una velocidad algo mayor, los nuevos reactores
empleaban los diseños aerodinámicos tradicionales, con el clásico perfil de ala con
superficies superiores mucho más curvadas que las inferiores.
A fin de evitar que se formara un vacío, el aire que pasaba por encima de las alas
debía avanzar más rápidamente que el que fluía por debajo. Por tanto, el aire situado
encima de las alas era el primero en encontrarse con fenómenos de compresibilidad
localizados que, a su vez, afectaban a la controlabilidad del avión.
Sorprendentemente, parece que ninguna de las naciones beligerantes de la II Guerra
Mundial llevó a cabo investigaciones coherentes sobre compresibilidad, salvo explorar
modelo por modelo la capacidad de picado a gran velocidad, tras lo cual se daba
instrucciones a los pilotos de que no superaran determinadas velocidades a una
altitud dada.
2
La era de la barrera del sonido
La aviación no entraría en la era de la barrera del sonido hasta el 14 de octubre de
1947, cuando el capitán estadounidense Charles Yeager (Chuck Yeager) llevó el
avión Bell X-1 propulsado por cohetes hasta una velocidad con respecto al aire de
1.078 km/h a 12.800 m de altura, lo que corresponde a Mach 1,015. Aunque Yeager
había demostrado sin lugar a dudas que era posible romper la barrera del sonido,
aún aprendería por experiencia propia que los efectos poco conocidos de la
compresibilidad, potencialmente peligrosos, podían acechar a la vuelta de la esquina.
Más de seis años después de superar Mach 1, Yeager se encontró con un problema
mientras volaba a Mach 2,4. En un fenómeno descrito como acoplamiento inercial de
balanceo, el X-1A que pilotaba empezó repentinamente a balancearse; cualquier
intento de Yeager por recuperar altura y controlar el avión no hacía sino aumentar el
problema. En unos segundos perdió totalmente el control, y el avión cayó
rápidamente desde su altitud inicial de casi 23.000 m hasta unos 10.500 m, donde
se estabilizó en una barrena invertida subsónica. Yeager sobrevivió, pero ese mismo
año el mismo fenómeno causó la muerte de George Welsh, el más cualificado de los
pilotos de pruebas estadounidenses, con lo que fue necesario interrumpir los
suministros del primer caza auténticamente supersónico, el F-100 Super Sabre (que
alcanzaba Mach 1,3), hasta encontrar una solución al acoplamiento inercial de
balanceo y otros efectos.
El despliegue operativo del F-100 en 1955 cerró la era de la barrera del sonido, y
supuso la culminación de los esfuerzos realizados por audaces pilotos que probaban
los nuevos aparatos a gran altitud sobre las montañas estadounidenses de sierra
Nevada. Mientras que la Unión Soviética casi igualó el esfuerzo estadounidense
durante la década de 1950, otros países como Gran Bretaña (con el English Electric
Lightning), Francia (con el Dassault Mirage III) y Suecia (con el Saab 35 Draken) no
desplegaron cazas supersónicos de producción nacional hasta 1960.
Los aviones supersónicos actuales se construyen con materiales avanzados capaces
de resistir el calor provocado por el rozamiento del aire a velocidades tan elevadas.
La mayoría son aeronaves militares, con la famosa excepción del avión comercial de
lujo franco-británico Concorde, que realizó sus primeros vuelos de prueba en 1971 y
empezó a transportar pasajeros a Estados Unidos en 1976. Capaz de lograr
velocidades en torno a Mach 2, el Concorde combina una velocidad propia de aviones
militares con la seguridad y fiabilidad de una aeronave comercial. El Concorde,
también conocido como transporte supersónico (SST), es capaz de realizar la
travesía de ida y vuelta del Atlántico norte en menos tiempo del que un reactor
normal necesita para hacer el vuelo de ida. Sin embargo, el ruido producido por este
avión esbelto de atractivo diseño siempre ha creado problemas medioambientales, y
sólo se construyeron 16 de las 400 unidades previstas inicialmente. Actualmente hay
14 Concordes en servicio, y todavía no se han concretado planes para construir un
nuevo avión comercial supersónico.
Enciclopedia Microsoft ® Encarta ® 2002. © 1993-2001 Microsoft Corporation.
Reservados todos los derechos.