Download EXTRATERRESTRES COMPUTADORAS

Document related concepts
no text concepts found
Transcript
El Meteoro del Sur
Boletín de los climas terrestre y espacial.
Boletín Meteorológico, publicación del Colegio de Ciencias y Humanidades Plantel Sur.
Año 5, Volumen 2, No. 3 febrero 2014
EXTRATERRESTRES
COMPUTADORAS
RADIOTELESCOPIOS
1
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
ESCUELA NACIONAL COLEGIO DE CIENCIAS Y HUMANIDADES
PLANTEL SUR
El meteoro del Sur
Boletín de los climas terrestre y espacial.
Editor: Fís. Arturo García Cole
Director: Lic. Jaime Flores Suaste
Colaboradores externos: Bertha Vázquez Román,
M. en C. Carlos Cario Ramírez
Colaboradores internos: Ing. Santiago Alfredo Díaz Azuara
M. en C. Jaime Arturo Osorio Rosales
Computo: Fís. Arturo García Cole & Ing. Santiago Alfredo Díaz Azuara
D.R. © 2009, CCH-Sur
Universidad Nacional Autónoma de México
Llanuras y Cataratas s/n
Jardines del Pedregal
04500, México, D.F.
e-mail: [email protected]
Web: http://colecchsur.wordpress.com
https://twitter.com/EstMetSur
https://www.facebook.com/estacion.meteorologicasur
http://meteorocch.blogspot.mx
Imagen de portada:
http://us.123rf.com/400wm/400/400/leks/leks1108/leks110800102/10222432-dos-palomas-mensajeras-son-maravilla-pararecibir-el-sms.jpg
Logo de la Estación Meteorológica del Plantel Sur.
2
Editorial
El cine y el clima
Alfredo Díaz-Azuara & Blanca Rivera-Pérez
Ufff hace calor y me encuentro en una encrucijada son las siete pm y no sé si ver la entrega del
premio Oscar en casa o ir al cine1 ver al Sr. Peabody y Sherman. Lo olvide, es muy probable que
ni tengas una idea de quienes son Peabody (es un perro que habla y es el ser mas inteligente del
mundo) y Sherman (es un niño e hijo adoptivo de Peabody), bueno son personajes de una
caricatura de los 60s, salían en “Las Aventuras de Rocky y Bullwinkle y amigos”, lo divertido de la
mini serie son sus aventuras que pasan con el fin de poner las cosas en orden en el espaciotiempo mientras aprende Sherman.
Por cierto, la forma de hacer cine ha cambiando radicalmente en los últimos 10 años, y esto se
debe a los contantes cabios tecnológicos que año tras año se dan; y así nuestro cine analógico
(celuloide) nos dirá adiós para dar entrada al cine digital2 (cámaras de vídeo a 33 megapíxeles
“7680 x 4320” con 60 imágenes por segundo "UHDV” y discos duros de alta velocidad; aunque
esto sólo se ha demostrado en una configuración especial de laboratorio3, la velocidad más alta
se consigue en cámaras de alta velocidad industriales y científicas que son capaces de filmar
vídeo 1024x1024 a hasta 1 millón de imágenes por segundo durante breves periodos de
grabación).
Esto me recuerda que la temperatura de un proyector4 de un cine oscila entre 35 °C (imagínate si
no existieran los climas artificiales, en mis tiempos había un encargado que tenia que estar
dedicado a supervisar la proyección para el auditorio) y esa temperatura sólo es del proyector de
toda la cabina5 oscila entre 50 – 60 °C.
Ilustración 1 Tormenta solar, imagen NASA.
1
2
3
4
5
Y hablando de temperatura
sabias que la temperatura de
nuestro planeta es afectada por
el clima espacial, si así como lo
lees. La cantidad de energía
solar que llega a nuestro
planeta afecta la temperatura
atmosférica (¡Orale!). Y esta a
su vez, depende de la actividad
del sol, y la manifestación más
conocida por el hombre son las
tormentas
solares,
varios
estudios han corroborado que,
durante los períodos en que se
http://www.esdelibro.es/archivos/trabajos10/201000099_cine_trabajo.pdf
https://www.youtube.com/watch?v=VVJLm9eWg40
http://www.avsforum.com/t/409580/uhdtv-future-of-audio-and-video
http://www.kelonik.com/pdf/NEC_Digital_Cinema_SpecBrochure_spa.pdf?PHPSESSID=520c1bfa7e930c1b755ce539f382680d
http://kinefilia.wordpress.com/2012/10/26/visita-a-una-cabina-de-proyeccion/
3
produce un incremento de la actividad solar 6 , amplía el número de contingencias médicas
relacionadas con infartos de miocardio y derrames cerebrales, así como de intentos de suicidio.
Así que hay que tener cuidado con las manchas solares, más bien por el número de ellas. Ah!
casi lo olvidaba las tormentas solares (Ilistración 1.) también afectan7 las comunicaciones por
ondas de radio, los satélites, animales migratorios, los vuelos de avión, etcétera. Lo que me
recuerda que durante la Segunda Guerra Mundial, hubo tantos problemas de comunicación para
las fuerzas armadas, por lo que el ingeniero de radio de RCA Communications, John Nelson ideo
un método de predicción de tormentas solares que hasta la fecha tiene un 95% exactitud.
La pregunta final sería y ¿porque los del clima siempre olvidan dar el clima espacial? Ya es
tiempo de ponerles traje de astronautas a los comentaristas del clima.
6
7
4
http://www.ncbi.nlm.nih.gov/pubmed/8199794?dopt=Abstrac
http://www.ccme.es/efectos.html
Contenido
EDITORIAL .................................................. 3
CONTENIDO ................................................. 5
BUSQUEDA DE INTELIGENCIA EXTRATERRESTRE .... 6
COMO “PIENSA” UNA COMPUTADORA ................ 11
RADIOTELESCOPIOS ...................................... 15
¿QUE SON LAS AURORAS POLARES? ................. 18
BENEFICIOS DE LA ATMOSFERA TERRESTRE ....... 21
¿SABIAS QUE? ............................................ 23
DIRECTORIO ............................................... 24
5
Busqueda de Inteligencia Extraterrestre
Jaime Osorio Rosales
“El descubrimiento de otras civilizaciones podría abatir gran parte de la necesidad de conflicto aquí en la Tierra”
Actualmente algunos científicos postulan que si tan
sólo en la Vía Láctea existen miles de millones de
estrellas, es absurdo pensar que la Tierra, nuestro
planeta, fue el único lugar donde se desarrolló la
inteligencia. Para demostrar sus presunciones han
intentado, por más de cuarenta años, captar
señales de radio provenientes de alguna
civilización extraterrestre. En ello consiste el
famoso programa SETI: siglas de Search for
Extraterrestrial Intelligence. De acuerdo con esos
científicos, SETI es el único medio por el cual
podemos probar la existencia de vida inteligente
más allá del Sistema Solar, ya que los viajes
interestelares por ahora no son posibles, además de que los costos de los programas de
búsqueda son relativamente bajos.
En 1959, la revista Nature publicó un artículo en el que Philip
Morrison y Giuseppe Cocconi, de la Universidad de Cornell,
proponen un método para entablar comunicación con
civilizaciones extraterrestres; sugieren que para sintonizar las
señales el canal adecuado es en la frecuencia de 1.420
millones de ciclos por segundo (Mc/s), esto es, una longitud de
onda de 21 cm, por ser la línea que emiten los átomos de
hidrógeno. Como este es el compuesto más abundante en
todo el Universo, parece razonable pensar que las
civilizaciones extraterrestres usan la misma frecuencia de
emisión y de recepción para realizar el contacto. En 1961 se
llevó a cabo una afamada reunión cuyo principal objetivo fue conversar acerca de la posibilidad
de contactar con civilizaciones extraterrestres; el suceso se realizó en Green Bank, Virginia
Estados Unidos, sede de la National Radio Astronomy Observatory, y asistieron Cocconi,
Morrison, el famoso físico Frank Drake, los astrónomos Su-Shu Huang y Carl Sagan, el biólogo
molecular Melvin Calvin (quien recién había recibido el premio Nobel), el especialista en delfines
John C. Lilly, y los ingenieros electrónicos Bernard M. Oliver y Dana W. Atchley.
Días antes del encuentro, Frank Drake desarrolló una ecuación que proporcionaría las bases para
las discusiones y que sería utilizada para evaluar la probabilidad de encontrar vida e inteligencia
extraterrestre. La llamada ecuación de Drake es la siguiente:
𝑁 = 𝑅∗ (𝑓! )(𝑛! )(𝑓! )(𝑓! )(𝑓! )(𝐿)
en la cual N representa el número de civilizaciones comunicativas en la Galaxia. Las primeras tres
fracciones son valores astronómicos que estiman, respectivamente, la proporción de formación de
estrellas R*, la fracción de estrellas con planetas fp y el número de planetas por estrellas en los
que el ambiente es favorable para mantener la vida ne; los siguientes dos factores pertenecen al
dominio de la biología, la fracción de planetas convenientes en los que se originó la vida fl, y la
6
fracción de planetas donde se originó y evolucionó la vida en alguna forma inteligente fi; las
últimas dos son del ámbito cultural, fracción de planetas con seres inteligentes que desarrollaron
una fase comunicativa fc, y la vida media en la cual una civilización se comunica L.
Durante la reunión en Green Bank se conservó el entusiasmo sobre el número de sistemas
planetarios estimados gracias a una investigación en la rotación estelar, Su-Shu Huang se
encargó de deducir el número de planetas en la Galaxia convenientes para el desarrollo de la
vida, Calvin argumentó que el origen de la vida era un evento común y un paso inevitable en la
evolución planetaria; Lilly comentó que si los delfines se consideran seres inteligentes, entonces
la inteligencia evolucionó independientemente dos veces en la Tierra, por ello deducía que
también podría evolucionar en otros planetas. En definitiva, todos concluyeron que dependiendo
del promedio de la vida media de una civilización, el rango se ubicaría entre menos de mil hasta
mil millones de civilizaciones con las que podríamos comunicarnos en toda la Galaxia.
Un año antes se realizó la primera búsqueda, encabezada
por Drake y su equipo, con el proyecto Ozma en honor al
nombre de la reina de la mítica tierra de Oz, un lugar
lejano, difícil de encontrar, donde habitan seres extraños y
exóticos. La observación se hizo en las instalaciones de la
NRAO en Green Bank; inició el 8 de abril de 1960 y duró
poco más de una semana. Sus objetivos fueron dos
estrellas de tipo solar, Tau Ceti y Epsilon Eridani, y aunque
falló en la búsqueda de inteligencia extraterrestre, facilitó
la realización de otros programas de búsqueda, los cuales
se llevan a cabo hasta la fecha, pero aún sin éxito.
En las décadas de los 60’s y 70’s, se realizó una serie de conferencias dedicadas al estudio de la
vida extraterrestre que impulsó el nacimiento de una nueva disciplina, la Exobiología, con el
subsecuente establecimiento de una comunidad científica encargada de la investigación de la
vida más allá de la Tierra, la cual estuvo formada únicamente por físicos, químicos e ingenieros,
especialmente del SETI. Con base en esta aclaración, hay que recalcar dos puntos importantes:
En primer lugar, los conceptos acerca de la evolución extraterrestre no fueron consultados a
biólogos evolucionistas, y no porque no hubiera biólogos cualificados que opinaran sobre este tipo
de cuestiones.
Aún vivían los creadores de la teoría sintética de la evolución, George Simpson, Ernst Mayr y
Theodosius Dobzhansky; de hecho, ellos discutieron, en artículos separados, sobre la vida e
inteligencia extraterrestre, y resulta interesante saber que sus opiniones fueron
considerablemente escépticas. En segundo lugar, la ecuación de Drake es bastante determinista,
idea muy controvertida en biología; las últimas cuatro variables de la ecuación no puede
evaluarse, mucho menos (fi), porque no es posible predecir un rumbo concreto en el curso de la
evolución, simplemente podemos decir que nuestra historia evolutiva fue sumamente compleja y,
por consiguiente, es bastante difícil tratar de determinar una inteligencia extraterrestre tomando
como modelo solamente lo ocurrido en la Tierra.
Por lo anterior, el conflicto se ha arraigado entre
dos formaciones disciplinarias; por un lado los
físicos, quienes tienden al determinismo, y por el
otro, los biólogos, a quienes se les ha inculcado la
importancia del azar en los procesos evolutivos.
Pero, ¿qué tan azarosos pueden ser estos
procesos? En su libro La vida maravillosa, Stephen
Jay Gould escribió que la evolución de la
7
inteligencia en el planeta Tierra fue altamente indeterminada, un suceso totalmente improbable
visto en retrospectiva, si en el transcurso de la evolución cualquier evento fuera diferente, la
especie humana jamás habría existido. Qué mundos alternos surgirían sin la evolución de los
organismos pluricelulares (constituido por 2 o más células), de los animales, y los mamíferos; si
no hubiera caído un meteorito en la Tierra hace sesenta y cinco millones de años, cuando los
mamíferos vivían bajo la sombra de los dinosaurios; es muy probable que los primeros jamás
habrían alcanzado las formas actuales —incluyendo al ser humano. Si en el curso de la
evolución, la vida tomara otra alternativa, es seguro que no estaríamos aquí. En palabras de
Gould, el “Homo sapiens es una cosa tan pequeña, en un Universo enorme, un acontecimiento
evolutivo ferozmente improbable, claramente situado dentro del dominio de las contingencias”.
Pese a eso, Gould no era totalmente escéptico en cuanto a la
posibilidad de evolución de inteligencia extraterrestre, ponía
mucha atención en el fenómeno de las convergencias; por
ejemplo, la capacidad de volar —sostenía Gould— ha
evolucionado por separado en insectos, aves, murciélagos y
pterosaurios; todos tienen los principios básicos para levantar el
vuelo, aun con una morfología variada. Por lo tanto, Gould estaba
de acuerdo con el postulado de que la inteligencia podría haber
evolucionado en otros mundos por caminos convergentes, al
igual que aquí en la Tierra la facultad del vuelo en los animales.
Además, coincidía con la postura de que SETI era la única forma
de comprobar la hipótesis de los extraterrestres inteligentes,
aunque también reconocía que sus posibilidades de éxito eran
muy escasas.
En
una
de
las
investigaciones que apoyan fuertemente la nueva
perspectiva, realizadas por Walter J. Gehring y sus
colaboradores, encontraron que el gen Pax 6, el que
regula la morfogénesis del ojo, es homólogo tanto en
insectos como en vertebrados. Es interesante señalar
que en este gen se ha detectado en todos los grupos de
animales que poseen ojos, desde invertebrados de
simetría bilateral hasta mamíferos. Estos resultados
comienzan a generar dudas sobre la hipótesis del origen
de los ojos, señala que el origen de los ojos fue un
evento raro, y una vez que surgió el prototipo, la
selección natural actuó optimizando el desarrollo de los ojos en los diferentes grupos de animales,
como es el caso de la convergencia de los de vertebrados y de cefalópodos (invertebrados
marinos). Estas conclusiones son sorprendentes, ya que empezamos a comprender que los
animales podrían ser variaciones de un mismo diseño corporal que se remonta al precámbrico y,
por lo tanto, el surgimiento de cada estructura o morfología,
como los ojos y el cerebro de los animales, podría ser
irrepetible.
Con base en lo anterior, podemos revisar uno de los
descubrimientos más importantes en la exobiología. El 7 de
agosto de 1996, la National Aeronautics and Space
Administration (NASA), realizó una conferencia de prensa
para anunciar la publicación de un artículo en la revista
Science, “Search for past life on Mars: possible relic biogenic
8
activity in martian meteorite ALH84001”. En ese texto, David S. McKay y sus colegas afirmaban
haber encontrado en un meteorito marciano la evidencia de una posible forma de vida
extraterrestre.
La historia de este meteorito surge hace quince mil millones de años, cuando Marte fue
impactado por un asteroide, desprendiéndose de él algunos fragmentos que viajaron por el
espacio exterior hasta que cayeron en la Antártica hace trece mil años. Al examinar varios de
esos fragmentos se descubrió que en las grietas de uno de ellos había substancias químicas que
suelen formarse por alguna actividad biológica; y no sólo eso, incluso presentaba unos
microfósiles que recordaban a las bacterias de la Tierra.
Lo más curioso del asunto es que esos microfósiles
datan de tres mil seiscientos millones de años atrás, lo
que coincide con los fósiles más antiguos de la Tierra,
una época en la que el agua era abundante en la
superficie de Marte. Aunque todas estas evidencias
podrían explicarse de otra manera (no mediante la
materia biológica), es cierto que despertó el interés del
público y el de la ciencia. Ahora bien, ¿Qué relación
tiene el meteorito marciano con la inteligencia
extraterrestre? Sus bacterias nos conducen a una
conclusión fascinante: que ése podría ser el tipo
cosmopolita de la vida en el Universo. Si es así,
¿cuáles son las posibilidades de que surja la vida
partiendo de las bacterias?
Antes podría ser cualquier cosa refiriéndonos a la materia organizada, ahora tendría que surgir de
una célula tipo bacteriano, el cual es muy diferente a nuestro tipo celular que es eucarionte
(organismos formados por células con núcleo verdadero) y sus orígenes pueden rastrearse hace
mil cuatrocientos millones de años, una época en la que las condiciones atmosféricas de la Tierra
empezaban a cambiar. En aquel entonces hubo un incremento exponencial de oxígeno, un gas
venenoso que resultó mortífero para los organismos dominantes en ese período; solamente
algunos sobrevivieron, entre ellos los eucariontes. Las mitocondrias transforman el oxígeno en
energía, cualidad que proporcionaría a las nuevas células eucariontes el boleto para la
supervivencia.
En conclusión, sin la simbiosis de las dos células, las
eucariontes no existirían. Ya que las últimas son la materia
prima para la construcción de organismos pluricelulares.
Éste caso sólo representa un pequeño ejemplo de las
millones de contingencias que nos conducen a pensar en lo
indeterminado que es la inteligencia extraterrestre.
Finalmente, según la hipótesis de Peter D. Ward y Donald
Brownlee, la vida bacteriana está extendida por todo el
Universo, y que la vida compleja (como los animales)
probablemente es extraña y difícil de mantener, postura a la que llaman la hipótesis de la Tierra
extraña. De hecho, Ward y Brownlee desarrollaron su propia ecuación, la ecuación de la Tierra
extraña, que es la siguiente:
9
𝑁 = 𝑁 ∗ 𝑓! 𝑓!" 𝑛! 𝑛! 𝑓! 𝑓! 𝑓! 𝑓! (𝑓! )(𝑓!" )
donde N* es el número de estrellas en la Vía
Láctea, fp la fracción de estrellas con planetas,
fpm la fracción de planetas ricos en metales, ne el
número de planetas en zonas habitables de la
estrella, ng las estrellas en una zona habitable
de la Galaxia, fi la fracción de planetas
habitables donde se originó la vida, fc la fracción
de planetas donde surgió vida compleja como
los metazoos, fl el porcentaje del tiempo de vida
de un planeta donde existe vida compleja como
los metazoos, fm la fracción de planetas que
tengan un satélite del tamaño adecuado, fj la
fracción de sistemas solares con planetas del tamaño de Júpiter, y por último, fme la fracción de
planetas con un bajo número de eventos de extinción masiva. Con todas estas variables, el valor
del número de civilizaciones en la Vía Láctea, según Ward y Brownlee, se aproxima a cero.
Escribieron, “evidentemente, algunos de estos términos se conocen en poco detalle pero la
variabilidad de factores que han permitido la evolución de la vida animal en este planeta, debe ser
más grande de lo que se conoce ahora.
La continua marginalización de la Tierra y su lugar en el Universo quizás debería ser examinada
de nuevo. No estamos en el centro del Universo y nunca lo estaremos. Sin embargo, no somos
tan ordinarios como la ciencia nos ha hecho creer durante milenios”. Aunque todas las propuestas
acerca del programa SETI parecen bastante interesantes, es indudable que sus posibilidades de
éxito son escasas y, por lo tanto, podrían representar una perdida de tiempo y de recursos.
Thomas Kuhn decía que la ciencia es un fenómeno social que se realiza por medio de nociones y
supuestos teóricos que un grupo humano comparte en una época en particular.
Quizás, por ahora, no podamos responder a la pregunta más enigmática
de la humanidad; debido a que un gran punto en contra salta a relucir, y
es el chantajismo, la explotación de ideas de seres con cabeza grande y
verdes que se venden en muñecos, centralizando la idea de que son
seres de otros mundos que son malos y nos invadirán, tal cual, lo
representan una infinidad de títulos de películas sobre el tema. Pero de
algo sí podemos estar seguros: nuestra especie es del tipo de vida más
raro y exótico que pueda presenciar el Cosmos. Tal vez el Universo está
plagado de vida, pero imaginar que hay seres inteligentes en otros
mundos, en realidad es lo que nos hace únicos.
Matematicamente todo cambia, si consideramos que el universo está
compuesto por 100.000 millones de galaxias y si las dividimos por la población mundial, a cada
uno le tocarían 14 galaxias, cada una de ellas formadas por unos 100.000 millones de estrellas,
entonces es probable, que cada una de estas estrellas tengan planetas que giran alrededor de
ellas, como lo hacen alrededor del Sol. Y, por lo tanto, sería posible la existencia del vida en el
universo. Aunque aun no se ha podido demostrar que existan seres inteligentes extraterrestre
nuestra ciencia ha dado pasos agigantados en el conocimiento y exploracion del universo y puede
ser posible que muy pronto tengamos mas informacion sobre otros sistemas parecidos al nuestro
donde existan quizas otras Tierras habitadas.
10
Cómo “Piensa” una Computadora
Jaime Osorio Rosales
Las usas para contarle un chiste a un amigo, para hacer tu tarea y para jugar. Sin ellas, tu
vida no sería igual. Pero, ¿cómo funciona realmente una computadora?
Al igual que tú, la computadora debe tener la capacidad de recordar, pensar y decir lo que
piensa. Para ello necesita un cerebro, una memoria y la capacidad de comunicarse y recibir
órdenes.
El cerebro de la computadora es el procesador, que le otorga la
capacidad de pensar. Mientras más rápido sea el procesador,
más rápido pensará la computadora. En nuestras ocupadas
vidas queremos una computadora que pueda ejecutar nuestras
órdenes lo más rápidamente posible. Así como no te gustaría
tener un teléfono que demore 10 minutos para marcar, tampoco
te gustaría visitar una página web que demore varias horas en
cargarse.
Una computadora realiza varios miles de millones de cálculos
simples por segundo. Mientras que tú o yo, contando un
número por segundo en forma continua, necesitaríamos 32
años para contar mil millones, una computadora lo hace en un
abrir y cerrar de ojos.
La unidad central de proceso (CPU
por sus siglas en inglés) es el
"cerebro" de las computadoras.
Las computadoras nos superaron en cuanto a la rapidez
para pensar, pero la comparación entre las personas y las
máquinas llega sólo hasta ahí. Aunque un ser humano
cuente más lentamente, el cerebro está conformado por 10
mil millones de neuronas que son pequeños procesadores
muy efectivos. Quizá contemos lentamente, pero somos
muy buenos para realizar con rapidez "cálculos" complejos
como reconocer un rostro, inventar una historia o correr,
acciones que a una computadora le resultarían muy difíciles.
La computadora también tiene una memoria. En realidad,
tiene muchas. Así como los seres humanos tenemos una
memoria de corto plazo que nos permite recordar cuándo
nos sentamos por última vez, y una memoria de largo plazo
que nos permite decir nuestro nombre y domicilio, la
computadora también cuenta con estas memorias. Su
memoria "de corto plazo" se denomina Memoria de Acceso
Aleatorio o RAM (Random Access Memory).
La memoria RAM se usa para los trabajos que estás
realizando en este momento: la carta que escribes, la
página web que visitas o el progreso del video juego que
11
estás jugando. La RAM se borra al apagar la computadora; por eso, si deseas que la
computadora recuerde tu carta, la página web o el nivel del juego, debes guardar esos datos en la
memoria de largo plazo.
La mayoría de las computadoras utilizan un disco denominado "disco duro" para la memoria de
largo plazo. Los puntos microscópicos de la superficie del disco están magnetizados en una u otra
dirección en un patrón que representa el código de la información que guardas. Este patrón
magnético permanece cuando apagas la computadora y se podrá leer la próxima vez que la
enciendas.
Otro tipo de memoria de largo plazo se denomina Memoria de Solo Lectura o ROM (Read Only
Memory). Estos chips contienen la información básica necesaria para que la computadora
arranque y realice otras funciones elementales que no cambian aunque se agreguen y cambien
programas, aplicaciones o documentos.
Existen muchos dispositivos capaces de
recordar información. Además de los
chips que se usan para las memorias
RAM y ROM y el disco magnético usado
para almacenamiento de largo plazo,
podemos mencionar los discos CD y
DVD, las memorias flash y las bandas
magnéticas de las tarjetas de crédito,
entre otros. Todos ellos tienen algo en
común: almacenan la información en
"bits" (dígitos binarios).
Un bit es algo que puede estar en uno de
dos estados: un interruptor que se apaga o enciende, un punto de material magnético orientado
en una dirección o en otra, un área microscópica de un CD plástico que tiene o no tiene una
pequeña marca grabada en la superficie. Sea cual fuere el medio de almacenamiento, estos bits
con sus dos posibles estados que se representan como 0 y 1 se pueden usar para codificar casi
cualquier información.
Situación del software
Aunque las computadoras cada vez más complejas pueden razonar mejor, una computadora
solamente hace lo que se le ordena. Ahí es donde aparece el software. Un programa de software
es una sucesión de instrucciones. Puede ser simple, como para que puedas calcular tu
asignación de todo el año, o complicado, como para predecir dónde se debe perforar un pozo
para extraer petróleo.
A veces, un error en el programa de la computadora provoca un resultado inesperado y,
generalmente, desagradable. Para los ingenieros de software es extremadamente difícil diseñar
un programa perfecto. Por eso la mayoría de los programas inicialmente contienen errores y la
depuración se convierte en una tarea diaria para los programadores.
Depurar generalmente es una tarea difícil y agotadora. El elemento más importante para depurar
un problema es la capacidad del programador para hacerlo. Sin embargo, la dificultad de la
depuración del software varía considerablemente de acuerdo con el lenguaje de
programación usado y a las herramientas utilizadas como depuradores.
12
Los depuradores son herramientas de software que permiten que el programador pueda controlar
la ejecución de un programa, detenerla, reiniciarla, ejecutarla en cámara lenta, cambiar los
valores de la memoria y en algunos casos, retroceder en el tiempo.
Finalmente, una computadora debe saber cómo comunicarse. Para ello es necesario conectarla a
dispositivos periféricos. En el mundo digital actual, la computadora no sólo está equipada con los
elementos básicos (teclado, mouse y pantalla) sino también con un módem, una cámara y una
impresora.
Todos los periféricos están conectados mediante un cable a la placa madre que está instalada en
la caja de la computadora con un enchufe. En el interior de la caja, el ventilador de refrigeración
produce un suave sonido similar al del viento.
Muchas, y en realidad probablemente la mayoría de las computadoras, no cuentan con teclado ni
pantalla sino que están incorporadas en diferentes dispositivos. Así, en un automóvil hay una
computadora que detecta el funcionamiento y estado del motor y controla diferentes funciones.
Los dispositivos de entrada son sensores y los dispositivos de salida son actuadores.
LA PRIMERA COMPUTADORA ELECTRÓNICA
A partir de la época de Babbage, las calculadoras
mecánicas se tornaron cada vez más complicadas,
especialmente en la época en que las fabricaba
International Business Machines, compañía creada
en 1911 y más conocida como IBM. Sin embargo, la
primera computadora completamente electrónica
apareció recién durante la Segunda Guerra Mundial.
¡Realizaba 5000 adiciones por segundo! Se llamó
ENIAC. Fue desarrollada y fabricada por el
Laboratorio de Investigación de Balística del ejército
de los Estados Unidos. Se encendió por primera vez
en 1947 y funcionó en forma continua hasta el 2 de
octubre de 1955 a las 11:45 p.m. Para almacenar los
dígitos utilizaba contadores de anillos de diez ENIAC, sigla que en inglés significa
posiciones. Para realizar los cálculos "contaba" los Computador e Integrador Numérico Electrónico
Numerical
Integrator
And
pulsos con los contadores de anillos y si el contador (Electronic
Computer) fue la primera computadora
reiniciaba el conteo, generaba "pulsos de acarreo". totalmente electrónica.
La idea era simular con la electrónica la operación de
las ruedas de dígitos de una máquina de sumar mecánica. Después del nacimiento de las
primeras computadoras como la ENIAC en la década de 1950, los descubrimientos
experimentales demostraron que los transistores realizaban las mismas funciones que los tubos
de vacío.
En 1979, el microprocesador o circuito integrado INTEL 8088 podía realizar 300.000 operaciones
por segundo. En el año 2000 la Pentium 4, también fabricada por INTEL, podía realizar
aproximadamente 1.700.000.000 operaciones por segundo, ¡unas 6000 veces más! Este
crecimiento exponencial de la cantidad de transistores por circuito integrado funciona de acuerdo
con la Ley de Moore.
En 1965, sólo cuatro años después de que se descubriera el circuito integrado plano, Gordon
Moore observó que aproximadamente cada dos años se duplicaba el número de transistores por
circuito integrado. Crédito: Cortesía de Intel Corporation. En 2004, un chip de silicona de 0,5 mm
13
cuadrados (0,02 pulgadas cuadradas) tenía la misma capacidad que ENIAC, que ocupaba una
habitación grande.
Allá por 1943, cuando Thomas Watson, presidente de IBM, dijo: "creo que hay un mercado
mundial para unas cinco computadoras", no podía imaginarse que su propia compañía jugaría un
papel clave para transformar la computadora en un elemento siempre presente en nuestra vida
cotidiana. Las computadoras cada vez son más rápidas y más pequeñas y proliferan en todo el
mundo con sorprendente velocidad. Sin el chip de computadora, la vida no sería como la
conocemos hoy. Apenas medio siglo después de su invención, todo aparato veloz y complejo,
desde un reproductor de DVD hasta un avión caza, tiene un chip.
Un chip de computadora puede hacer funcionar la red de suministro eléctrico de una ciudad, el
microondas que utilizamos para calentar alimentos o el teléfono celular con el que nos
comunicamos con los amigos y la familia. En realidad, muchos eruditos piensan que la
computadora es uno de los inventos más importantes de la humanidad.
14
Radiotelescopios
Jaime Osorio R.
“ Escrutan el cielo captando las ondas electromagnéticas de baja frecuencia “
¿Sabías que en CCH-Sur hay un radiotelescopio funcionando?
La radioastronomía en CCH-Sur nos interesa ya que se pueden promover, vincular actividades y
proyectos que refuercen los conceptos aprendidos en Matemáticas y Física. Dichos proyectos
están diseñados para que los estudiantes tengan una relación directa con proyectos científicos de
adquisición de datos y de fenómenos astrofísicos reales.
Desde el ciclo escolar 2008-2009 está en operación un radiotelescopio en nuestro Plantel, se
colocó una antena dipolar en la azotea de la Biblioteca, la cual envía su información a una
computadora que se encuentra en la Estación Meteorológica edif. CH (planta baja) y a la Red
Mexicana de Radiotelescopios. Varios planteles y dependencias de la UNAM también cuentan
con una antena que envía información a la Red.
Como propuesta futura, en nuestro Plantel se tiene considerada la construcción de 3
radiotelescopios de plato, por tanto, será necesario instalar el circuito electrónico para la
adquisición de los datos obtenidos, armar los receptores para cada antena, realizar la instalación
física y la electrónica necesaria para colocarlos en la azotea de un edificio del plantel y realizar la
calibración de los radiotelescopios. Por lo anterior se hace una cordial invitación a toda la
comunidad a participar en este proyecto. Si estas interesado acude a Estación Meteorológica edif.
CH (planta baja).
15
Un radiotelescopio es un dispositivo utilizado para captar las ondas de radio provenientes de
cuerpos celestes. Muchos de estos cuerpos (como púlsares y galaxias activas) emiten señales de
radiofrecuencia. Dichas radiaciones se detectan más en la región de radio del espectro
electromagnético que en la región de la luz visible (captada por los telescopios ópticos
convencionales). Constituído desde complejos sistemas tecnológicos hasta por una simple antena
en forma de dipolo, conectada a un sensible aparato de amplificación y registro, los
radiotelescopios recogen y analizan las ondas radio que emiten los objetos espaciales. La
observación de las longitudes de onda "invisibles" desde la Tierra está condicionada
principalmente por las ventanas atmosféricas. Son pocas las regiones, aparte de la región óptica,
que no son absorbidas por la atmósfera terrestre. Las longitudes de onda cortas, como los rayos
gamma, X y UV, son absorbidas en la ionósfera y en la estratósfera (capa de ozono), impidiendo
cualquier observación de este rango desde la superficie terrestre. Parte de la radiación infrarroja
es absorbida por el vapor de agua y el CO2, que está
localizado en la zona de la atmósfera más cercana a la
Tierra, por lo que existen algunos telescopios infrarrojos
situados en las cimas de las altas montañas.
Los radiotelescopios más comunes están formados por un
disco metálico de forma de antena parabólica, llamado
reflector, o simplemente parabólica. Dicho disco actúa como
el espejo de un telescopio reflector, recoge las ondas radio y
las hace converger en la antena situada en el centro (foco).
Luego, la señal se envía a una serie de instrumentos que la
amplifican, la graban y la elaboran para extraer información.
En el foco de un radiotelescopio está la antena de dipolo
conectada al aparato de amplificación y registro. En la
práctica, las ondas de radio incidentes producen sobre la
antena débiles corrientes eléctricas, que son después
amplificadas por los circuitos del receptor.
En radioastronomía, para captar buenas señales, se deben utilizar grandes antenas o grupos de
antenas trabajando en paralelo (array). La mayoría de radiotelescopios utilizan una antena
parabólica para amplificar las ondas. Esto permite a los astrónomos observar el espectro de radio
de una región del cielo.
Se pueden usar dos o más radiotelescopios en conjunto y combinar las señales que reciben de la
misma fuente. Esto permite a los astrónomos evaluar con mejor detalle y precisión la fuente de
emisión. Cuando dos o más radiotelescopios
son combinados apropiadamente, pueden
formar un gran radiotelescopio (large array).
La técnica de combinarlos y analizar el conjunto
de las señales de radio se denomina
radiointerferometría. Además, debido a que las
longitudes de onda con las cuales trabaja la
radioastronomía son aproximadamente un
millón de veces mayores que las de las
radiaciones
visibles,
para
que
un
radiotelescopio tenga el mismo poder de
16
resolución que un telescopio debería ser proporcionalmente más grande, lo que plantearía, como
es comprensible, delicados problemas constructivos. La parte de la astronomía dedicada al
estudio de todas estas radiaciones y a las observaciones a través de radiotelescopios se
denomina Radioastronomía. Gracias a esta rama de la astronomía, es posible ver cuerpos y
situaciones que no son posibles de detectar con la astronomía óptica.
La ventaja de poder estudiar los cuerpos celestes, no solo a través de su luz visible, sino también
a través de las radioondas que ellos emiten, es todavía discutida duramente por los científicos,
por las dificultades que se deben afrontar para lograr que las señales sean inteligibles. Muchos
objetos celestes emiten radiaciones de radiofrecuencia. Examinando la frecuencia, potencia y
tiempos de las emisiones de radio de estos objetos, los astrónomos son capaces de ampliar
nuestra comprensión del Universo. Los radiotelescopios también se utilizan en ocasiones en
proyectos como SETI (es el acrónimo del inglés Search for ExtraTerrestrial Intelligence, o
búsqueda de Inteligencia Extraterrestre) y en el seguimiento de vuelos espaciales no tripulados.
Radioastrónomos y astrofísicos de todo el mundo, están convencidos de la utilidad de la
búsqueda de una eventual vida extraterrestre a través de técnicas radioastronómicas, una
pequeña parte del tiempo de actividad de algunos radiotelescopios se dedica a la investigación
sistemática de transmisiones inteligentes, provenientes de eventuales planetas extrasolares
habitados por civilizaciones evolucionadas. En la actualidad se pueden encontrar operativos
cientos de radiotelescopios, observando, analizando y mapeando superficies de planetas y
asteroides como la Luna, con el objeto de ampliar la información del universo.
Como en el caso de los telescopios ópticos, la potencia del instrumento crece proporcionalmente
con la superficie del colector. Sin embargo, los radiotelescopios pueden alcanzar dimensiones
mucho mayores. La razón de ello se comprende en seguida si se tiene en cuenta la diferente
precisión de elaboración requerida para la superficie reflectante que, en cualquiera de sus puntos,
no puede diferir de la superficie ideal (por ejemplo, de un paraboloide) en más de una décima de
la longitud de onda. En caso contrario, el resultado es una disminución de la capacidad de
resolución y de la potencia. Para los telescopios ópticos, que trabajan con ondas de 0,5 µm, la
precisión requerida es del orden de una diez-milésima de milímetro, e incluso menos. En cambio,
para un radiotelescopio con antena paraboloide que trabaje, supongamos, con ondas de 10 cm,
bastará con que la antena no difiera de la superficie perfecta en más de un centímetro. Las
modernas técnicas de construcción pueden asegurar esta precisión incluso sobre superficies
metálicas de un centenar de metros de diámetro. El mayor radiotelescopio del mundo es el "fijo"
de Arecibo (Puerto Rico), con un colector esférico de 305 m de diámetro.
17
¿Qué son las Auroras Polares?
Carlos Alberto Rodríguez Martínez
Tal vez alguna vez hayas oído hablar acerca de las auroras polares son fenómenos que se
manifiestan en forma de brillo o luminiscencia en el cielo nocturno de las regiones polares, estos
fenómenos atmosféricos se clasifican dependiendo de su localización en 2 clases: 1) Auroras
boreales son las que se manifiestan en el hemisferio norte y 2) Auroras australes son las que se
manifiestan en el hemisferio sur. El nombre que llevan de “aurora” proviene del nombre que le
daban los romanos a la “diosa del amanecer”, dentro de la primera clase de auroras la palabra
boreal proviene del griego “bóreas” que usaban los navegantes y todos los estudiosos del tiempo
para referirse a los vientos del norte; mientras que en el segundo caso “austral” siempre hace
referencia a lo que proviene del sur.
Fig. 1: Aurora boreal vista en Tromso, Noruega.
El origen de las auroras polares es muy interesante, ya que se producen cuando una eyección de
masa coronal viaja con el viento solar a velocidades de 300-1,000 km/s, conforme se van
acercando al planeta los rayos son deflactados (quiere decir que el viento solar al llegar al
Ecuador es repelido por el campo magnético hacia los polos, donde la atmósfera es más delgada)
de la Tierra y fluyen por la magnetósfera en forma de río, al chocar estas partículas de energía
solar con los átomos y moléculas de la magnetósfera llegan a un estado excitado de energía y
después de que esos átomos y moléculas regresan a su nivel normal de energía devuelven el
excedente energético en forma de luz difusa. La altitud necesaria para que se desarrollen
adecuadamente las auroras polares va de los 95 hasta los 1,000 km/snm y esto se debe a que
necesitan una temperatura atmosférica especialmente fría para manifestarse en toda su belleza.
Las distintas formas y colores que adquieren las auroras dependen en buena medida del tiempo
que duren en el cielo nocturno, este último puede variar desde minutos hasta meses y van de la
mano con las condiciones meteorológicas del lugar. El fenómeno empieza generalmente como un
gran arco que se extiende por todo el horizonte en dirección este-oeste, cerca de la media noche
puede que incrementen su brillo y empiezan a formarse ondas y estructuras verticales.
Finalmente el cielo se llena de bandas, espirales y rayos que parecen moverse como si fueran
nubes o palpitar como si tuvieran vida propia. Hay que resaltar que el fenómeno durante el día se
calma, pero como en el invierno no sale el Sol por varios meses es la época en que pueden ser
apreciadas con mayor probabilidad a menos que exista un cielo nublado.
Los colores dependen del tipo de átomos o moléculas que las partículas del viento solar excitan y
del nivel de energía que durante la interacción alcanzan. Por ejemplo: el oxígeno (O2) produce los
18
colores más comunes que son el verde y el amarillo, mientras que el nitrógeno (N2) produce el
azul y finalmente el helio (He) produce tanto el rojo como el púrpura. Esto último también lo
podemos corroborar a través del entendimiento del espectro electromagnético, ya que el color
que vemos depende de la cantidad de energía producida por la radiación, si la luz es demasiado
energética los colores que emitirá serán un azul muy intenso o un violeta, mientras que si es poco
energética el color que emitirá será un rojo, anaranjado o amarillo.
Fig. 2: Aurora boreal vista en Kvaloya, norte de Noruega.
Si te das cuenta el proceso de formación de los colores de las auroras es muy parecido al que
ocurre con los anuncios de neón, ya que al excitarse este gas por medio de las corrientes
eléctricas adquieren un excedente de energía que al ser devuelto emite una luz que depende del
gas que la conforma. Dentro de las mitologías tradicionales, por ejemplo, los vikingos creían que
la aurora era un puente de fuego construido por los dioses para conectar el cielo con la Tierra;
mientras que los inuit (esquimales) creían que los espíritus de sus ancestros bailaban sobre las
auroras.
Fig. 3: Avistamiento en Noruega.
Fig. 4: Uno de los lugares con mayores avistamientos de auroras es Noruega debido a sus condiciones
climatológicas que favorecen la existencia de vida, gracias a la corriente marina cálida proveniente del Golfo
de México.
19
Fig. 5: Aurora polar causada por la interacción de oxígeno y helio.
Fig. 6: Cielo completamente iluminado en Karlsoy, norte de Noruega.
El Telescopio Espacial Hubble ha tomado varias fotografías de planetas dentro de nuestro
Sistema Solar que también se caracterizan por tener el mismo comportamiento atmosférico con
relación a este fenómeno, lo cual hace suponer a los científicos que los siguientes planetas deben
poseer un campo magnético similar al de la Tierra: Júpiter, Saturno, Urano, Neptuno, Mercurio y
el caso especial de Marte que no tiene un campo magnético parecido al de la Tierra, pero posee
algunos campos magnéticos locales que dan origen a las auroras.
Fig. 7: Imagen de una aurora polar extraterrestre vista a través del UV en Júpiter.
Bibliografía:
“Calculo de la altura de formación de auroras boreales”; Serra-Ricart, Miquel; Instituto de Astrofísica de
Canarias, Tenerife; España, 2011; www.iac.es/adjuntos/www/auroras.pdf
“Las auroras han fascinado a viejos y a noruegos durante generaciones, pero ¿cuál es su explicación
científica?”; Torres Vázquez, Federico; Instituto Geofísico de Alaska Fairbansks, 2012;
www.visitnorway.com/es
20
Beneficios de la Atmosfera Terrestre
Carlos Alberto Rodríguez Martínez
La atmósfera terrestre es la capa gaseosa gracias a la cual podemos respirar y constituye la
causa fundamental por la cual ha existido la vida en este planeta. Durante la Era geológica
Mesozoica (característica por ser la época de los dinosaurios) que abarca entre 251 y 65.5
millones de años a.n.e. (antes de nuestra era). La existencia de esos grandes reptiles solo fue
posible gracias a un incremento extraordinario en la disponibilidad de oxígeno atmosférico del
planeta durante ese rango de 185.5 millones de años a.n.e. Por supuesto la abundancia de (O2)
hizo aumentar de tamaño primeramente a las plantas con las que se alimentaban los herbívoros.
Fig. 1: Tanto la fauna como las plantas crecieron mucho durante el Mesozoico gracias a la abundancia de
(O2)
Con el término del exceso de oxígeno la evolución continuo´ su camino hacia formas más
pequeñas y adaptables, debido a que la atmósfera misma ha seguido evolucionando
ininterrumpidamente y por ello ha variado la proporción de sus gases a lo largo de las distintas
Eras geológicas, ése es el factor determinante que ha causado los procesos de extinción masiva
que han ocurrido a lo largo de la historia del planeta. Estos gases son atraídos por la gravedad de
la Tierra y le permiten conservar temperaturas no tan extremas en su superficie, ya que de otro
modo la posibilidad de la vida sería aún más complicada.
Fig. 2: A lo largo de la historia los gases que posibilitan las vida han sufrido variaciones muy violentas.
Actualmente la atmósfera mide aproximadamente 100 km de altura en las zonas intertropicales,
pero en los polos su volumen se reduce drásticamente gracias a que la carencia de aire caliente
en esas regiones impide que se expanda su volumen, puesto que al volverse calentarse se vuelve
más ligero y sube a las altas capas de la atmósfera para después enfriarse y generar así las
circulaciones local, regional y general de la atmósfera. Más de la mitad de su masa se concentra
en los primeros 6 km y el 75% en los primeros 11 km de altura msnm. Se calcula además que la
masa total de la atmósfera es de 5.1x1018 kg. La atmósfera contiene a la capa de ozono (O3) que
21
funciona de escudo protector contra la radiación ultravioleta que al ser altamente energética es
perjudicial para la vida en general.
Los gases que componen actualmente la atmósfera son los siguientes y se encuentran en estas
proporciones: La tropósfera (capa más próxima a la superficie terrestre) contiene 78% de
nitrógeno (N2), oxígeno (O2) representa el 21% del total, argón (Ar) representa el 0.9% del total,
dióxido de carbono (CO2) representa el 0.03% del total y es necesario para que las plantas llevan
a cabo el proceso fotosintético y es el resultado de otros procesos biológicos como la respiración
y la combustión de los organismos que contienen carbono; el ozono (O3) solo se encuentra en la
estratósfera y es el que absorbe la mayor parte de los rayos UV. El vapor de agua se encuentra
en proporciones muy variables y participa en la formación de nubes y la retención de calor en la
tropósfera. Finalmente el resto de la lista de gases atmosféricos se completa con el neón,
hidrógeno, helio, metano, kriptón, óxido nitroso y xenón que se encuentran en proporciones
minúsculas.
Fig. 3: Perfil de las distintas capas atmosféricas.
Para concluir bastaría hacer las siguientes precisiones sobre cada una de las capas de la
atmósfera: 1) La tropósfera es la capa que contiene todos los fenómenos meteorológicos y
disminuye su temperatura con la altura alrededor de 6.5°C/km. 2) La estratósfera contiene a la
capa de ozono y su temperatura es menor a los -60°C. 3) La mesósfera se caracteriza por tener
que alcanzan los -90°C y se encuentra a una altura de 80 km. 4) La Ionósfera va de los 90 a 400
km de altura y se caracteriza por tener átomos cargados eléctricamente llamados iones que
posibilitan la transmisión de ondas electromagnéticas y allí se desintegran los meteoros y 5) La
exósfera es donde los gases se dispersan y relacionan con el espacio exterior a 360 millas de
altitud; es aquí donde orbitan los satélites meteorológicos y de telecomunicaciones. Geografía
Física
Bibliografía:
“Earth fact sheet”, Williams, David R., 2004; “Physical Geography”, Strahler, Arthur N., New York: John
Wiley & Sons, 1960; “Geografía Física”, Strahler, Arthur N., Barcelona Omega, 2005.
22
¿Sabias qué?
Efectos de la Actividad Solar en Palomas Mensajeras
Arturo García Cole
¿Cómo viajan las palomas mensajeras?
Las palomas mensajeras viajan grandes distancias, pueden ser soltadas a unas 645 kilómetros
de su palomar, hasta un lugar que nunca han ido antes, y regresar en un plazo de 1 día. Cuando
son utilizadas para competencias los últimas 65 kilómetros de su recorrido, el ave viaja utilizando
la vista. Mientras que los otros 580 kilómetros, determina su regreso por medio de la "detección"
de campos magnéticos de la Tierra.
¿Cómo puede el Sol afectar a las palomas mensajeras ?
Cuando ocurre una eyección de masa coronal (CME), el viento solar (partículas cargadas
procedentes del Sol) producen tormentas geomagnéticas que distorsionan el campo magnético
de la Tierra. Las palomas ya no confían en su sistema de guía y se pueden perder. Los dueños
de las palomas corredoras, especialmente en las zonas muy septentrionales, realizan un
seguimiento de la actividad solar y no vuelan sus palomas en ciertas condiciones geomagnéticas.
¿Cómo medimos la actividad geomagnética ?
La actividad geomagnética se mide a lo que llamamos el índice "A", una medida de la intensidad
del campo magnético, que va de 0 a 400 nT (mínima a máxima perturbación respectivamente).
Otro número útil es el índice "K", que rastrea los cambios en la “radio atmosfera” y afecta la
navegación de la paloma. El índice K oscila entre 0 y 9 (sin y máxima perturbación
respectivamente).
¿Qué niveles de actividad geomagnética son peligrosos para las palomas ?
Cualquier registro sobre los 150 nT en el índice “A” de actividad geomagnética, 4 o más en el
índice "K", se considera inseguro para el entrenamiento o competencia de palomas mensajeras.
Bibliografía:
http://solar-center.stanford.edu/solar-weather/pigeons.html
23
Directorio
Dr. JOSÉ NARRO ROBLES
Rector de la UNAM
Lic. LUCÍA LAURA MUÑOZ CORONA
Directora General del CCH.
PLANTEL SUR
Lic. JAIME FLORES SUASTE
Director
Mtro. LUIS AGUILAR ALMAZÁN
Secretario General
Lic. SERGIO GARITA HERNÁNDEZ
Secretario Administrativo
Q.F.B. SUSANA LIRA DE GARAY
Secretaria Académica
Lic. ROSA MARÍA VILLAVICENCIO HUERTA
Secretario Docente
Act. PATRICIA PUENTE HUITRÓN
Secretaria de Asuntos Estudiantiles
Mtra. NADIA TERESA MÉNDEZ VARGAS
Secretaria de Apoyo al Aprendizaje
Ing. Aeronáutica JOSÉ MARIN GONZÁLEZ
Secretario Técnico SILADIN
Mtra. GEORGINA BALDERAS GALLARDO
Unidad de Planeación
Fís. ARTURO GARCÍA COLE
Responsable de la publicación
Coordinador de la Estación Meteorológica
24