Download Reloj de sol

Document related concepts
Transcript
Metrología, Universidad Nacional de Colombia
REVISTA ARTICULOS GRUPO 12
Universidad Nacional de Colombia
2012
1
Metrología, Universidad Nacional de Colombia
INDICE
ARTÍCULO
1
2
3
4
INTEGRANTES
G12N05
G12N10giovanni
G12N32juandavid
G12N33CAROLINA
G12N6ANDRES
G12N16fernando
G12N03gustavo
G12N13juanfelipe
G12N30Miguel
G12N24Felipe
TÍTULO
Pag
El tiempo en el tiempo
3
El Efecto Hall Patrón de Resistencia
6
Incertidumbre y su estimación
10
Temperatura y métodos de calibración
de termómetros
13
5
6
7
8
9
10
2
Metrología, Universidad Nacional de Colombia
El tiempo en el tiempo
Edward Norberto Bautista Rodríguez
Universidad Nacional de Colombia
Ingeniería Mecánica
Resumen, A lo largo de la historia, la humanidad ha tenido una gran necesidad de medir y conocer el tiempo
en el que se desarrolla, es por eso que se han desarrollado una gran variedad de relojes que serán objeto de
nuestra investigación, incluyendo las influencias de la época, la tecnología, el ambiente y la necesidad.
Reloj de sol
La forma mas sencilla de medir el tiempo es el uso
del sol, pues es
este el regulador
universal
del
paso del tiempo,
sin el viviríamos
algo así como una
noche eterna, sin
darnos cuenta del
paso de una hora
o un día.
Es por eso que es
tal ves la forma mas antigua de medir el tiempo, se
tiene conocimiento de relojes solares desde 4000 a.C.
usados por los chinos, también los usaban los
egipcios y los incas, pero su uso se atribuye al
filosofo Jonio Anaximandro en el siglo VI a.C.
Clepsidra y reloj de arena
Este reloj tiene su fundamento en un objeto mas
antiguo
llamado
la
clepsidra, que es un reloj
de agua, el cual era
mucho mas útil y preciso
que el reloj solar pues no
dependía de un agente
externo a él, como es el
sol, consistía en un vaso,
en
cuya
extremidad
inferior se encontraba un tubo angosto por donde
goteaba el agua que caía en otro vaso. Sobre este
recipiente, había una escala graduada y al llenarse,
indicaba las horas transcurridas. La clepsidra, data de
los años 3000 a.C. usada por los egipcios, pero
perfeccionada por griegos y romanos.
El reloj de arena no nada
diferente a una clepsidra
que en lugar de agua
tiene arena, pero cada
que la arena pasa de un
lugar al otro, hay que
girarlo para volver a
empezar la medición de
otro periodo de tiempo,
que por lo general era de
una hora.
Aunque se sabe que su invención es muy antigua, la
primera de la que se tiene conocimiento es de 1338.
Relojes mecánicos
Aún no se sabe quién inventó el primer Reloj
Mecánico, lo que
se sabe es que los
primeros que se
han
encontrado
son del año 1290.
Su
mecanismo
consiste en un
conjunto de ruedas
giratorias
accionadas por un
peso colgado de
una cuerda.
Pero en 1670 un
invento
de
William Clement inspirado en las anclas de los
buques funcionaba con el vaivén de un péndulo que
mece la ancora de tal manera que se traba y después
se destraba en cada uno de los dientes de la rueda lo
que a su ves permite un movimiento preciso.
Tan solo cinco años después apareció Hyugens con
otro hallazgo de gran importancia como lo es el
volante con muelle en espiral, este reloj era el más
exacto hasta ese momento, con un error de solo 5
minutos diarios. El reloj de tipo péndulo más
conocido es el llamado Reloj Cucú. [1]
3
Metrología, Universidad Nacional de Colombia
Reloj eléctrico
En 1840 Alexander Bain construyó un reloj
eléctrico accionado por la atracción y repulsión
eléctrica.
Reloj de cristal de
cuarzo
En 1920, Warren
Marrison y J.W.
Horton construyen el
primer
reloj
de
cuarzo en los Bell
Telephone
Laboratories.
Son
relojes que se caracteriza por poseer una pieza
de cuarzo que sirve para generar los impulsos
necesarios a intervalos regulares que permitirán la
medición del tiempo. El cuarzo se talla habitualmente
en forma de lámina y se introduce en un cilindro
metálico. Éste tiene por función la protección del
mineral. Para que vibre el cristal de cuarzo, debe ser
alimentado por un campo eléctrico oscilante generado
por un circuito electrónico. Son relojes muy exactos,
sólo se atrasan o adelantan 3 segundos al año.
[2]
Reloj atómico
Reloj nuclear
Los relojes atómicos son actualmente los relojes más
exactos del mundo y se basan en las propiedades
físicas que tienen las fuentes de emisión de cesio. El
primer reloj atómico de cesio fue construido
en 1955 en el Laboratorio Nacional de Física (NLP),
en
Inglaterra.
Sus
creadores
fueron Louis
Essen y John V.L Parry
A pesar de la precisión alcanzada por los relojes
atómicos, los científicos parecen no estar conformes
aun con un error de un segundo cada 138millones de
años y por eso se encuentran trabajando en el
desarrollo de un nuevo reloj, que será conocido como
reloj nuclear, de este se tiene poca información
debido a que aun se encuentra en etapa de diseño.
Los relojes atómicos establecieron una nueva forma
de medir el tiempo, según este patrón, un segundo se
corresponde con 9.192.631.770 ciclos de la radiación
asociada a la transición hiperfina desde el estado de
reposo del isótopo de cesio-133. La precisión
alcanzada con este tipo de reloj atómico es tan
elevada que admite únicamente un error de un
segundo en 30.000 años, pero el más exacto del
mundo actualmente se encuentra en el NPL de
Londres y tarda 138millones de años en perder un
segundo.
La precisión extrema de este reloj, es cien veces
superior
a
la
de
los
actuales
relojes
atómicos, proviene del núcleo de un solo ion de torio.
El reloj nuclear podría ser útil para algunas
comunicaciones confidenciales y para el estudio de
teorías fundamentales de la física. Asimismo podría
añadir precisión al sistema de posicionamiento
global, que se sustenta ahora en relojes atómicos.
Los relojes mecánicos emplean un péndulo que
provee las oscilaciones con las que se mide el tiempo.
En los relojes modernos son cristales de cuarzo los
que proveen las oscilaciones de alta frecuencia que
4
Metrología, Universidad Nacional de Colombia
operan como una horquilla de afinación musical en
lugar del antiguo péndulo.
La precisión de los relojes atómicos proviene de las
oscilaciones de los electrones en los átomos
inducidas por rayo láser. Pero a estos electrones
pueden afectarles los campos magnéticos y eléctricos,
y por eso los relojes atómicos a veces sufren una
desviación de unos cuatro segundos a lo largo de la
existencia del universo.
Pero los neutrones son mucho más pesados que los
electrones y están agrupados con más densidad en el
núcleo atómico de manera que son menos
susceptibles a tales trastornos ambientales.
Según el artículo del Instituto Tecnológico de
Georgia, para crear las oscilaciones los
investigadores planifican el uso de un láser que opera
en frecuencias de petaherzios -10 elevado a la 15
potencia, ó 1.000.000.000.000.000 oscilaciones por
segundo- para hacer que el núcleo de un ion de torio
229 pase a un estado de energía más elevado.
Los diseñadores tienen otro problema: para que el
reloj nuclear sea estable hay que mantenerlo a
temperaturas muy bajas de apenas decenas de
microkelvin y para producir y mantener tales
temperaturas habitualmente los físicos usan un
refrigerante del laser, pero en este sistema eso se
presenta como un problema, porque la luz del laser
también se usa para crear las oscilaciones que marcan
el paso del tiempo. [3]
Referencias
[1]
http://www.profesorenlinea.cl/mediosocial/Relo
jHistoria.htm
[2] http://www.wickedmagazine.org/2011/08/el-relojatomico-es-el-mas-preciso-del.html
[3] http://www.elespectador.com/tecnologia/articulo333157-disenan-reloj-nuclear-100-veces-maspreciso-el-atomico-actual
5
Metrología, Universidad Nacional de Colombia
EFECTO HALL PATRÓN DE RESISTENCIA
Nelson Castro
[a]
Juan D. Rodríguez G. [b]
Palabras clave: Voltaje Hall / Campo Magnético /Campo eléctrico / Corriente /Metrología
Resumen
La calidad es el factor principal al momento de aumentar la productividad en cualquier organización, solo es posible llegar a ello
mediante la utilización de la metrología pues sus normas conllevan responsabilidad, reproducibilidad y confiabilidad en los
procesos llevados a cabo. Una de las partes dentro de la metrología es el uso de patrones con trazabilidad internacional. Uno de
estos patrones corresponde a la resistencia el cual hace uso del efecto Hall cuántico para reportar su correspondiente valor, y se
elabora de tal forma que sea posible reproducir en cualquier parte del planeta.
Abstract
Quality is the main factor when increasing productivity in any organization; you can only achieve this through the use of metrology
because its rules include liability, reproducibility and reliability of the processes carried out. A party in metrology is the use of
standards with international traceability. One of these patterns corresponds to the resistance which makes use of the Hall effect for
reporting the corresponding quantum value, and is prepared so that it can play anywhere in the world.
Email: [a] [email protected]
[b]
[email protected]
1. Introducción
Productividad, una palabra que soporta una gran
cantidad de procesos sincronizados y altamente
eficientes que se encuentran enmarcados por la calidad,
uno de estos elementos de gran importancia es la
metrología. Se obtiene calidad si las mediciones que
realizan equipos o instrumentos de medición son
confiables en la magnitud que el proceso lo requiera,
con un nivel de exactitud y certeza que solo es otorgada
por la calibración de estos elementos, que además
confieren un nivel alto de precisión a cada medida
realizada. Esta calibración no es sino una comparación
con patrones estándar nacionales e internacionales
reconocidos, en una cadena ininterrumpida llamada
trazabilidad. Por medio del uso correcto de
la
metrología es posible asegurar un cliente satisfecho
además de proteger al consumidor con lo cual se facilita
la cooperación industrial mediante el intercambio de
mercancías.
En la metrología el patrón es el pilar de su función, una
pieza de estos patrones corresponde a la resistencia, el
cual hace uso del efecto hall cuántico para reportar
valores muy exactos de resistencia
que serán
comparados con otros elementos para generar un
instrumento o máquina de medición. El efecto hall en si
utiliza los conceptos de Fuerza de Lorentz, Ley de
Coulomb y campos magnéticos además de aplicaciones
como el condensador de placas paralelas y la definición
de corriente como conceptos generales de un fenómeno
a escala normal, sin embargo la real aplicación se
encuentra cuando las temperaturas son muy bajas y los
campos magnéticos son muy altos pues allí en el
conductor la energía toma valores discretos, lo cual
hace factible su uso como patrón.
Dentro del campo de la física existen diferentes
disciplinas que se encargan de estudiar fenómenos
particulares de la naturaleza con el fin de dar una
explicación científica a estos acontecimientos. Este
artículo incluye conceptos y fundamentos basados en la
física de electricidad y magnetismo, y trabaja términos
relacionados con la metrología en cuanto a la
instauración del patrón de resistencia eléctrica. El tema
principal que maneja gira alrededor del fenómeno físico
conocido como “Efecto Hall”, llamado así por Edwin
Herbert Hall quien fundamentó y realizó las
demostraciones necesarias para entender este efecto
electromagnético.
Principalmente este artículo pretende dar una breve
explicación al porqué del comportamiento del efecto
mencionado anteriormente, analizando como influyen
cada uno de los elementos que actúan en el proceso
total del experimento, con el fin de llegar a relacionar
estos conceptos con las leyes básicas que rigen la
electricidad y el magnetismo. Además, proyecta resaltar
la importancia de este fenómeno en campos como el de
la metrología y la vida cotidiana.
2.
Aspectos Generales
6
Metrología, Universidad Nacional de Colombia
2.1 Metrología
Una magnitud física define una característica
observable de un sistema físico. Son magnitudes físicas
la longitud, el tiempo, la masa, la velocidad, la fuerza,
el campo eléctrico, etc.
A cada magnitud le corresponde una unidad de medida,
de manera de poder expresar cuantitativamente su valor
en una medición o cálculo referido a un sistema físico.
Un sistema de unidades es el conjunto de unidades
asignadas a cada magnitud básica o derivada que se use
en la ciencia o la técnica.
La normalización internacional de pesos y medidas se
halla bajo el control de la Conferencia General de Pesos
y Medidas. Las conferencias se realizan en la actualidad
cada cuatro años. La Conferencia designa el Comité
Internacional de Pesos y Medidas, formado por 18
miembros de países diferentes, se reúne cada año y
controla la Oficina Internacional de Pesos y Medidas
(Bureau International des Poids et Mesures - BIPM),
que es el organismo encargado de asegurar la
unificación mundial de las mediciones físicas. El BIPM
se creó en 1875 con la adhesión de 17 estados.
Actualmente 55 estados, adhieren al sistema. Debido a
la creciente complejidad de la definición, control y
adecuación de los patrones de medida a los avances
científicos, la Conferencia ha creado Comités
Consultivos (nueve, en la actualidad) sobre diferentes
aspectos metrológicos y desde 1965 publica una revista
científica propia, llamada Metrología, además de las
publicaciones realizadas por sus expertos en distintas
revistas científicas internacionales y los distintos
informes de sus cuerpos consultivos y laboratorios
propios. En 1960 la Conferencia General de Pesos y
Medidas adoptó el llamado Sistema Internacional de
Unidades (SI) que fue adoptado luego por cada país
adherente con particularidades propias. El SI tiene
unidades básicas (consideradas por convención
dimensionalmente independientes) y derivadas (que
surgen algebraicamente de combinaciones de las
unidades básicas).
La metrología es un conjunto de reglas y normas que
permiten realizar una correcta medida, con herramientas
otorgadas por instituciones como el BIPM y es desde
estas instituciones que comienza la cadena productiva,
pues sin la cuantificación no es posible realizar ninguna
tarea empresarial.
2.2 Descubrimiento
Este fenómeno fue observado por primera vez en la
universidad Johns Hopkins en Baltimore U.S.A. en el
año de 1879 por el físico estadounidense Edwin Herbert
Hall.
En Octubre del año 1879, el físico Edward Herbert Hall
observa un efecto en el cual la aplicación de un campo
magnético intenso sobre una delgada lámina de oro por
la que circula una corriente, produce una diferencia de
tensión transversal al flujo de corriente en la lámina,
esta tensión fue conocida como voltaje Hall.
El experimento realizado por Edward Hall, está
esquematizado por un circuito que consta de una fuente
de voltaje conectada en serie a una resistencia y a una
fina lámina de oro, como se muestra en la figura 1.
Fig. 1 Efecto Hall en lámina de oro
La diferencia de potencial es generada entre las caras
transversales a las que está conectada la corriente, y su
valor es proporcional a la relación que existe entre la
magnitud de la corriente y el valor del campo
magnético.
Para el año de 1980 físico alemán Klaus von Klitzing
descubriría el efecto Hall cuántico, el cual significó la
base para el estándar internacional de resistencia
eléctrica utilizado para categorizar los materiales
conductores de electricidad.
2.3 Relación con la Metrología
Las mediciones confiables suministradas por
instrumentos de medición precisos y exactos traen
consigo la calidad de los productos. Para asegurar el
correcto funcionamiento de los equipos y tener la
certeza de que las mediciones efectuadas son exactas,
estos instrumentos deben ser calibrados, es decir,
comparados con patrones nacionales o internacionales
reconocidos, en una cadena ininterrumpida llamada
trazabilidad
El patrón de resistencia establecido gracias al
experimento de efecto Hall cuántico, significó un gran
paso no sólo para física, sino también para la
metrología, pues generó un manejo óptimo de las
mediciones de resistencia y aseguró un futuro uso
apropiado de la tecnología que permitió resultados más
confiables que han venido beneficiando al cliente y
protegiendo al consumidor. De esta manera, facilitó la
cooperación industrial y el intercambio comercial
internacional de mercancías.
7
Metrología, Universidad Nacional de Colombia
3.
Física del Efecto Hall
En donde
representa el campo eléctrico de las
cargas, B el campo magnético y q la carga.
Debido a que estas dos fuerzas son iguales se tiene que:
Como el voltaje Hall es igual a:
Fig. 2. Lámina delgada de un material conductor o
semiconductor por la que fluye una corriente I en
dirección x y en la dirección y se aplica un campo
magnético uniforme .
· d representa la distancia entre c y a (figura 3).
de la ecuación 4 y se reemplaza en la
ecuación 5 obteniendo:
Se despeja
Fig. 3 Medición del voltaje transversal, Voltaje Hall
La fuerza magnética está definida como:
Esta fuerza actúa sobre los electrones generando una
acumulación de los mismos en el borde c, con lo cual se
genera un campo eléctrico entre las cargas negativas en
c y las positivas en a (remitirse a las figuras2 y 3).
La densidad de los portadores de carga se obtiene
midiendo la corriente en la muestra y esta expresada
como:
En donde A es el área de la sección transversal del
conductor, y es igual a:
Cuando se alcanza un equilibrio, los electrones ya no
son desviados hacia arriba, por lo cual el campo
eléctrico es constante, permitiendo medir la diferencia
de potencial llamada VOLTAJE HALL
.
A continuación se presenta la deducción de la expresión
del voltaje Hall:
Fuerza Magnética sobre los
portadores
Finalmente se reemplaza
en la ecuación 6 para
obtener la expresión completa para el voltaje Hall:
Fuerza Magnética sobre los
portadores
En donde la expresión:
8
Metrología, Universidad Nacional de Colombia
4.
Representa el coeficiente o la resistencia Hall.
3.1 Efecto Hall Cuántico
Antes del descubrimiento del Efecto Hall Cuántico
(EHC), utilizado actualmente para reproducir el ohm en
los principales laboratorios nacionales del mundo, el
Ohm se mantenía mediante un conjunto de resistores de
1 Ω, tipo Thomas.
El segundo descubrimiento clave para la metrología
cuántica eléctrica fue el efecto Hall cuántico, observado
por primera vez por Klaus von Klitzing en 1980. Este
efecto
puede
observarse
en
dispositivos
semiconductores cuando se les aplican campos
magnéticos del orden de 10 Tesla (100.000 veces el
campo magnético terrestre) y se enfrían a temperaturas
inferiores a la del Helio líquido (4,2 K). En estas
condiciones experimentales el dispositivo presenta
valores cuantizados de la resistencia Hall. Se ha
comprobado, con una incertidumbre de partes en 1010
que dichos valores de resistencia son independientes de
variables como la corriente de medida, la temperatura o
el tipo de dispositivo.
3.2 Medición del Voltaje Hall
Por medio de la obtención experimental del Voltaje
Hall, se puede deducir la velocidad de los portadores de
carga junto con su concentración, debido a que cuando
se alcanza el estado de equilibrio, la fuerza eléctrica
ejercida sobre cada carga, se nivela con la fuerza
magnética (ecuación 4). Con esto se comprueba la
relación de proporcionalidad directa que existe entre la
corriente eléctrica y el campo magnético con el voltaje
Hall y la relación de proporcionalidad inversa entre el
voltaje Hall y el número de portadores por unidad de
volumen. Consecuentemente, un sensor de efecto Hall
puede determinar la fuerza que realiza un campo
magnético, conociendo la corriente aplicada y vicevers
Si la fuerza del campo magnético y la corriente son
conocidas, el sensor Hall se puede utilizar como
detector de metales o como detector de componentes
magnéticos en general. Este tipo de sensores se
encuentran en circuitos integrados ubicados en
impresoras láser, disqueteras de ordenador, en motores
de corriente continua, etc.
Una aplicación interesante del efecto Hall es la
posibilidad de determinar la concentración de iones en
la sangre, al igual que la velocidad de circulación del
flujo sanguíneo. Si se aplica un campo magnético
transversal a la corriente sanguínea que fluye por una
arteria, el voltaje Hall generado depende de esa
velocidad y teniendo esa, es posible determinar la
concentración de los iones.
5.
Fig. 4. Medición voltaje Hall
La figura 4 muestra un dispositivo experimental
destinado a medir el voltaje Hall. Sobre una corriente
eléctrica opera un imán que produce un campo
magnético (B). La fuerza magnética que se genera (Fm)
desvía las cargas en movimiento hacia uno de los
extremos del cable, lo que implica una polarización en
cada uno de los lados de la lamina. En consecuencia,
entre ambos extremos se establece un campo eléctrico y
una correspondiente diferencia de potencial o voltaje
Hall visible, en mayor o menor medida dependiendo del
material y el grosor de la lámina.
Aplicaciones
REFERENCIAS
[1] Serway A. Raymond, Jewett John W. Física para
ciencias e ingeniería con física moderna. Cengage
Learning. Séptima Edición. Volumen 2. págs. 825-827
[2] “Efecto Hall” [En Línea]. Disponible en:
http://intercentres.edu.gva.es/iesleonardodavinci/Fisica/
Electromagnetismo/Electromagnetismo07b.htm.
Consultado: Junio/2012
[3] “Efecto Hall”. [En Línea] Disponible en:
http://www.sabelotodo.org/electrotecnia/efectohall.html
. Consultado: Junio /2012.
[3] “Efecto Hall”. [En Línea] Disponible en:
http://www.sabelotodo.org/electrotecnia/efectohall.html
. Consultado: Junio /2012.
[4] “Nuevos patrones eléctricos basados en fenómenos
cuánticos”. Ciencia en Aragón (2005). Disponible:
http://www.aragoninvestiga.org/Nuevos-patroneselectricos-basados-en-fenomenos-cuanticos/.
[5]”CNM-PNE-3, Patrón Nacional de Resistencia
Eléctrica en corriente continua”. Centro nacional de
metrología. Disponible:
http://fisica1000017.wikispaces.com/file/view/Patron+
Nacional+de+Resistencia+Electrica+Cenam.pdf
[6]”Laboratorio de metrología”. Icontec internacional.
Disponible:
http://www.icontec.org.co/index.php?section=93
9
Metrología, Universidad Nacional de Colombia
INCERTIDUMBRE Y SU ESTIMACIÓN
Resumen
La medición es una base para todo aquello que tiene una representación física, por tanto es una base
importantísima para la misma física, ahora bien sin una forma definida de medida, una forma de revisión,
comprobación de resultados, las bases de las mayorías de cosas, teorías e ideas, estarían planteadas de manera
muy abiertas sin conclusiones definidas con ó sin medidas. A continuación en este artículo comentaremos la
definición de la medida y de la incertidumbre de manera teórica, con algunos ejemplos, haciendo énfasis en la
incertidumbre, a la cual se le dará mas importancia ya que le da precisión a la medida, ya que sin esta no
serviría de nada el hecho de medir si no existe confiabilidad en la medida.
INTRODUCCIÓN
Con respecto a las medidas, la unidad con la cual se debe
medir debe presentar unas condiciones como son:
La medición es un procedimiento típico de la ciencia, en el
cual se compara el objeto a medir con un patrón seleccionado
cuya magnitud física es comparable y se desea medir cuantas
veces el patrón es el objeto a medir.
-
Esta cantidad desconocida en magnitud y queremos medir
será mesurada con un objeto de referencia ya establecido en
un sistema como el sistema internacional ó el sistema ingles,
los cuales son los más utilizados.
-
Ahora bien las medidas, debido a una serie de factores, pueden
verse afectadas, por ejemplo, la persona que mide debido al
ángulo en que mide, ve de manera errónea el dato, ó quizás el
instrumento no está bien calibrado, ha sido modificado con
esfuerzos plásticos, ó el ambiente ha modificado la precisión
del instrumento, incluso es posible que el instrumento diga
que un porcentaje o la medida de error. Aquí es donde por el
afán o por la necesidad de tener una medida exacta se busca
hallar una cota que le dé límite al error, donde la
incertidumbre no supere lo necesario, si bien lo necesario
puede ser que la incertidumbre no supere un limite pues los
cambios en los resultados afecten de manera progresiva el
error aumentándolo, o quizás al necesitar el resultado de una
manera exacta se desarrollara un objeto que afectará o el cual
tendrá características de tolerancia, si bien el porcentaje de
error es muy alto es muy probable que el objeto tenga
problemas, inconsistencias o sea obsoleto.
DESARROLLO
Antes de profundizar con el tema de errores e incertidumbre
se planteará de manera breve las basas sobre las cuales se
realizan pruebas de incertidumbre, es decir los objetos y
patrones de medida.
-
Inalterable (no debe cambiar la medida con el tiempo
ni con quien la realice).
Ser universal (debe ser utilizada en lo posible por
todos y de la misma forma).
Debe ser fácilmente reproducible (ya que si es difícil
reproducirla sería difícil para cualquiera o en su
mayoría todo el que necesite hacer medidas tendría
un gran problema consiguiente el patrón de unidad).
Ahora no todas las medidas son universales, pero tienen la
tendencia a una búsqueda de la universalidad siendo así la más
utilizada el sistema de unidades del sistema internacional (S.I).
Una medición directa es cuando tenemos un instrumento de
medida con las condiciones mencionadas, comparando con
este el fenómeno o la naturaleza física a medir, es claro
comentar que un instrumento de medida de cierto tipo solo
aplica para medir fenómenos o cantidades del mismo tipo de
magnitud.
Existe también la forma de medir por medidas reproducibles,
que al ser efectuadas una serie de comparaciones de la misma.
Cuando al efectuar una serie de comparaciones entre la misma
variable y el aparato de medida y se obtiene el mismo
resultado o uno bastante cercano esta medida es reproducible
ya que tiene cierto grado de confianza, en esta capacidad de
reproducción está basado los patrones de medidas del S.I.
La medida estadística está basada al efectuar serie de
comparaciones entre la misma variable y el aparado de medida
variables se obtienen distintos resultados, este tipo de medida
es aplicables para cuando el fenómeno a medir se puede
presentar aleatorio, como por ejemplo medir cierta
particularidad de un grupo de personas a cierta tendencia.
10
La medición indirecta es cuando una medición directa no es
aplicable por la magnitud de el objeto a medir es difícil de
medir por comparación directa, esto suele ocurrir cuando el
objeto a medir es muy pequeño, muy grande y depende de
obstáculos de otra naturaleza. Entonces basándonos en otros
tipos de variables medimos el objeto, como por ejemplo hallar
la altura de un edificio en función de longitud de su sombra y
el ángulo de incidencia de la luz, o la comparación entre dos
objetos y su sombra con la misma incidencia de la luz pero sin
saber el ángulo de incidencia.
Ahora bien todas las medidas tienen un cierto error una
incertidumbre a saber el dato exacto medido. Por esto es
necesario hallar una cota ó intervalo en el cual varía el
resultado medido y el que se tiene entendido como el
verdadero. No siempre se tiene un resultado verdadero,
entonces esta incertidumbre es el resultado de varias medidas
del objeto a medir. Este valor “real” es una convención en la
cual es la estimación adecuada de la zona de valores en donde
se encuentra ale valor correcto del objeto mesurado y que en
términos teóricos o prácticas es imposible de hallar con
certeza completa, por eso nos referimos a la incertidumbre de
una medida.
el valor asociado al error de precisión más confiable
es el instrumento.
-
Errores estadísticos ó aleatorios.
Como dijimos antes, el tipo de medida estadística es
el resultado de varias fuentes que no pueden ser
controladas y que de manera aleatoria generan un
resultado que puede que no tenga un valor “real” con
el cual comparar. Así también estos errores pueden
presentarse en las medidas comunes como es al medir
unos fenómenos se vea afectado pro fuentes
aleatorias que afecten al objeto a medir o el
instrumento mensurador.
Una forma de calcular el error en la medida es repetir varias
veces la medida, si obtenemos el mismo resultado el por que
la apreciación el instrumento no es suficiente para manifestar
los errores; en cambio si resultan diferentes valores podemos
apreciar de manera más fácil los errores que estamos
cometiendo. En este caso aplicamos el método de estadística
descriptiva en el cual hallamos el valor medio, y el error será
equivalente a la desviación típica de los valores obtenidos.
En el Vocabulario Internacional de metrología (VIM) se
encuentra definida la incertidumbre como “un parámetro
asociado al resultado de una medición que caracteriza la
dispersión de los valores que razonablemente podrían ser
atribuidos al mesurando”.
El error en las medidas son las incertidumbres, estos errores
pueden ser clasificados en:
-
Errores sistemáticos.
Los cuales se basan en la presencia de un factor que
no se ha tomado en cuenta y que afecta de manera
significativa el resultado de la medida. Estos errores
se repiten constantemente al no tenerse en cuenta en
todas las medidas dando un resultado siempre de la
misma forma. Por ejemplo medir siempre con una
misma regla, esta regla sin estar calibrada de manera
correcta.
-
Errores de observación.
Este error es resultado del observador, la persona que
mide, al observar por ejemplo en ángulo equivocado,
o no calibrar de manera adecuado ó tomar el dato al
tiempo exacto. En otras palabras errores humanos al
no tener cuidado.
-
Errores de precisión del aparato de medida.
Todo instrumento de medida presenta una limitación
en la precisión. Este error de precisión puede darse de
manera explicita en el instrumento o puede que ni
siquiera se mencione, este demuestra la calidad y
confiabilidad del instrumento. Entre más pequeño es
Cuando la medición que realizamos la hacemos de manera
indirecta, a partir de otra que ya conocemos, estas contienen
un margen de error el cual será necesario hallar con el valor
indirecto y que este además se transmite. A esta transmisión
de errores de las magnitudes calculadas de manera indirecta
se le llama propagación de errores. Para hallar este error
normalmente es utilizar el método de la diferencia total, el
cual se basa en que todos los cálculos están basados en
funciones, si estas funciones presentan varias variables y
corresponden a combinaciones lineales de diferenciales cuyos
coeficientes son los gradientes de la función. Supongamos la
magnitud a medir es r= f(X,Y,Z), que es una función de otras
magnitudes X, Y , Z, que se ha medido directamente
incluyendo sus incertidumbres directas, obteniéndose entonces
los valores de:
La incertidumbre entonces de la magnitud r viene dada por:
Existen otras formas de obtener un valor de una magnitud a
partir de medidas directas, como por ejemplo la regresión
lineal, el cual será aplicable cuando la relación entre dos
magnitudes X y Y es lineal. En otras palabras de la forma.
de como se hace la medida el proceso a hallar la incertidumbre
tiene determinados pasos.
Y= mx+b
Dentro de las medidas entonces no solo se hacen mediciones
directas por comparación sino por mediciones indirectas o
cálculos a los cuales les debe someter un redondeo y unos
pasos para asegurar la fiabilidad de los procesos y de los
resultados.
Siendo “m” la pendiente de la función y “b” la constante que
define la ordenada en el origen. Cuando dos magnitudes se
relacionan de manera lineal, la gráfica que generan es una
línea de manera lineal que corta al eje en el origen en (0, b). Si
obtenemos medidas directas o indirectas entre los valores que
generaron la recta no estarán perfectamente alineados.
Utilizando la regresión lineal podemos obtener la recta que
más se aproxima a los puntos.
Cabe también mencionar las reglas del redondeo, en la cuales
después de tomar medidas normalmente se aplican cálculos
sobre estos datos dando como resultado otros datos con
definiciones derivadas de las primeras medidas. Las
cantidades físicas que se han medido en el experimento y las
constantes con las que se trabajan en los cálculos se toman un
número finito de decimales. Los resultados de las operaciones
son números que en principio no tienen un valor exacto, por
ello mismo el número de cifras significativas es limitado pues
no tiene sentido considerar más cifras si estas muestran error.
Supongamos que queremos redondear un número que quede
representado con n cifras significativas.
-
Si (n+1)-esima cifra suprimida es menor que 5, la nesima cifra conservada no varía.
- Si (n+1)-esima cifra suprimida es mayor que 5, la nesima cifra conservada aumenta e una unidad.
- Si la (n+1)-esima cifra suprimida es igual a 5 se
aplica lo siguiente:
1) Si entre las cifras suprimidas además del 5 son
distintas de cero la n-esima cifra conservada aumenta
en 1.
2) Todas las cifras suprimidas salvo el 5 son ceros; la nesima cifra conservada aumenta en 1, si el numero de
cifras suprimidas es impar, no varía si es par.
A pesar de la necesidad de medir un algo es necesario también
saber con qué finalidades, si bien solo es aprender a medir ó
medir algo que no necesita mucha precisión no hace falta
hacer un proceso riguroso como el descrito, en cambio si el
valor tiene que ser preciso, pues será reproducible ó según la
precisión planteará otra cosas ameritará el proceso y el más
sumo de los cuidados en cuanto a la mesura y a el resultado de
hallar la incertidumbre y los errores.
REFERENCIAS
-
-
-
CONCLUSIONES
Todas las medidas tienen una representación física y a cada
medida tiene inherente a ella un error ya que el valor exacto
preciso de la mesura es imposible de hallar de manera teórica,
y el valor que consideramos verdadero es un resultado dado
como convención que después de un proceso determinado con
pasos definidos y que debe ser siempre el mismo se obtiene
una media al a cual se tiende a tener el mismo resultado con
un porcentaje de media ó una cota, que además dependiendo
-
-
BECKWITH, Thomas G. MARANGONI, Roy D.
LINHARD
V.
John
H.
Mechanical
measurements 2007 Pearson/Prentice Hall 6th
ed.ISBN 0201847655
http://www.cartesia.org/article.php?sid=187
http://www.mitecnologico.com/im/Main/Sensibilidad
Incertidumbre
Introducción a la Física experimental, Introducción a
la Teoría de Errores. Universidad de la Laguna.
D. C. Baird. Experimentation: An Introduction to
Measurement Theory and Experiment Design.
Prentice Hall, 1962.
J. R. Taylor. An Introduction to Error Analysis.
University Science Books, 1982.
Apuntes de Laboratorio de Física General, editado
por la Facultad de Ciencias de la UNAM, 1976
Federick J. Buche, FISICA GENERAL, Mc Graw
Hill, 1999.
"Mecánica elemental" de Juan G. Roederer.
R. Resnick y D. Halliday, Física, Vol. II, 4ª Ed.
(Addison-Wesley Interamericana, México, D.F.
1995).
D.C. Baird, Experimentation, 3ª Ed. (Prentice Hall,
Nueva York, 1999).
3. J. Miranda, Evaluación de la Incertidumbre en
Datos Experimentales (Instituto de Física, UNAM,
México,
2000).
Temperatura y métodos de calibración de
termómetros
G. Aponte, J. Garzón, E. Neira y M. Ramos
Grupo12
Facultad de Ciencias, Fundamentos de Electricidad y Magnetismo.
Universidad Nacional de Colombia, Bogotá
Resumen
El fin de este escrito es la comparación entre un termómetro digital y uno análogo, para ello se definirá el
concepto de temperatura y su importancia como magnitud física, para poder deducir de ahí métodos de
calibración de termómetros que nos permitan realizar la comparación de los instrumentos mencionados
inicialmente.
Temperatura:
Esta es una magnitud relacionada al a
energía cinética que posean átomos y
moléculas que compartan un cuerpo, siendo
una magnitud escalar propia de un sistema
termodinámico, esto convierte a la
temperatura en una cuantificación de la
actividad de la materia dentro de un cuerpo.
Existe una gran importancia de cuantificar,
con cierto grado de precisión, aquella idea
intuitiva de lo caliente o frio. La
importancia radica en que una cantidad
apreciable propiedades de la materia está en
función de la temperatura como el
rendimiento en las reacciones químicas, el
estado en que se puedan ver los materiales,
el espacio que ocupan, la presión, la
radiación o la conductividad térmica.
Es posible usar la ley cero de la
termodinámica
para
definir
cierto
comportamiento en la temperatura y definir
un principio de funcionamiento para un
instrumento que la mida. La ley termo
dinámica dice que si dos partes de un
sistema entran en contacto térmico es
probable que ocurran cambios en las
propiedades de ambas. Estos cambios se
deben a la transferencia de calor entre las
partes. Para que un sistema esté en
equilibrio térmico debe llegar al punto en
que ya no hay intercambio neto de calor
entre sus partes. Lo último es en suma el
principio que se usa para el termómetro,
con ello se dice que cuando el termómetro
esta en equilibrio térmico con el cuerpo en
cuestión se puede realizar la medición de su
temperatura pues estos comparte el mismo
valor de la misma.
Este instrumento conserva una historia llena
de numerosos intentos de crear escalas de
medición y de implementar métodos
efectivos de medición, no trataremos esto
con profundidad pues no existe la necesidad
de hacerlo. Aunque hay cosas importantes
sobre la unidades que se tienen que
exponer.
Unidades de temperatura
Los valores que puede adoptar la temperatura en
cualquier escala de medición, no tienen un nivel
máximo, sino un nivel mínimo: el cero absoluto
que en virtud de lo dicho anteriormente es
cuando la energía cinética de las partículas de
un cuerpo es cero. Las siguientes son algunas de
las escalas definidas:

Grado Celsius (°C)
Para establecer una base de medida de la
temperatura Anders Celsius utilizó (en 1742) los
puntos de fusión y ebullición del agua. Se
considera que una mezcla de hielo y agua que se
encuentra en equilibrio con aire saturado a 1
atm está en el punto de fusión. Una mezcla de
agua y vapor de agua (sin aire) en equilibrio a 1
atm de presión se considera que está en el punto
de ebullición. Celsius dividió el intervalo de
temperatura que existe entre éstos dos puntos en
100 partes iguales a las que llamó grados
centígrados °C. Sin embargo, en 1948 fueron
renombrados grados Celsius en su honor; así
mismo se comenzó a utilizar la letra mayúscula
para denominarlos.
En 1954 la escala Celsius fue redefinida en
la Décima Conferencia de Pesos y Medidas
en términos de un sólo punto fijo y de la
temperatura absoluta del cero absoluto. El
punto escogido fue el punto triple del
agua que es el estado en el que las tres fases
del agua coexisten en equilibrio, al cual se
le asignó un valor de 0,01 °C. La magnitud
del nuevo grado Celsius se define a partir
del cero absoluto como la fracción 1/273,16
del intervalo de temperatura entre el punto
triple del agua y el cero absoluto. Como en
la nueva escala los puntos de fusión y
ebullición del agua son 0,00 °C y 100,00 °C
respectivamente, resulta idéntica a la escala
de la definición anterior, con la ventaja de
tener una definición termodinámica.
Grado Fahrenheit (°F)
Toma divisiones entre el punto de
congelación de una disolución de cloruro
amónico (a la que le asigna valor cero) y la
temperatura normal corporal humana (a la
que le asigna valor 100). Es una unidad
típicamente usada en los Estados Unidos;
erróneamente, se asocia también a otros
países
anglosajones
como el Reino
Unido o Irlanda, que usan la escala Celsius.
Grado Réaumur (°Ré, °Re, °R)
Es usado para procesos industriales
específicos, como el del almíbar.
Kelvin (K)
El Kelvin es la unidad de medida del SI. La
escala Kelvin absoluta es parte del cero
absoluto y define la magnitud de sus
unidades, de tal forma que el punto triple
del agua es exactamente a 273,16 K.
La conversión entre estas unidades es
sencilla pues se pueden establecer
relaciones lineales entre cada ellas
expresadas en las siguientes ecuaciones:
Ver Anexo # 1.
Calibración de termómetros
La temperatura es una de las magnitudes físicas
más importantes, pues la realización de gran
número de procesos académicos, industriales y
cotidianos, depende de esta. Pero a su vez
podemos pensar que su significado no es
ampliamente entendido ya que al parecer está
definida bajo una serie de condiciones teóricas,
mientras que los demás parámetros si tienen
materialización inmediata.
Aunque para la medición de temperatura, se
dejan como supuestos sistemas termodinámicos
perfectos y para estos se establecen una escala
que los represente como la escala Kelvin (K),
conteniendo esta en valor cero de temperatura
definido de forma teórica. Se pueden obtener
valores cerca de lo ideal utilizando como
referencia la Escala de Temperatura de 1990
(ITS-90) que permite el usa de la escala Celsius
de manera al terna por su similitud a la Kelvin.
Por lo tanto si un termómetro es calibrado,
convendría serlo con base a la ITS90 la cual
posee valores en grados Celsius con aprobación
internacional, referenciados a fenómenos físicos
reproducibles que siempre ocurren a la misma
temperatura, como el punto de solidificación de
un metal puro.
La forma más sencilla y confiable de calibrar
termómetros es utilizando los puntos fijos de la
tabla siguiente, sin embargo debe tenerse
cuidado para tener una verdadera trazabilidad,
ya que se tiene una limitante en cuanto al rango
en que se encuentra la tabla.
El método de calibración por comparación es el
más utilizado. Implica comparar un termómetro
inferior con otro superior. Pueden ser del mismo
tipo, pero el superior debe estar calibrado a
mayor precisión. La comparación puede ser
hecha en un baño líquido donde el volumen sea
suficiente para garantizar la misma temperatura
en todo el volumen. Este volumen isotérmico
debe ser suficiente para contener los dos
termómetros y que ambos estén a la temperatura
del baño.
Ver anexo # 2
Inmersión
Para calibrar un termómetro de trabajo en un
punto lejos del punto fijo, se debe utilizar el
SPRT y luego el termómetro de trabajo para
comparar ambas medidas. Para esto, se necesita
poner ambos termómetros en el mismo volumen
isotérmico
suficientemente
grande
para
garantizar que ambos termómetros están a la
misma temperatura que el volumen que los
contiene.
A partir de los métodos definidos para la escala
ITS-90, se establecen los dos métodos para
calibrar termómetros: el de puntos fijos y el
método de comparación.
Para calibrar usando puntos fijos, es posible
usar unos instrumentos llamados celdas de
puntos fijos que poseen gran confiabilidad
dentro de las calibraciones industriales, este
tipo de celdas existe una gran variedad que
contienen sustancias de alta pureza como
celdas primarias de cuarzo-vidrio, Celdas
de Agua y Celdas Delgadas de Metal con
pureza igual a 99.99995%, de aceptación
internacional disponibles en Indio, Estaño y
aluminio, con incertidumbres de hasta
0.07m.
Estas celdas darían la mayor versatilidad para
llevar a cabo las calibraciones. La empresa vería
reducido a un mínimo las necesidades de enviar
equipo a re-calibrar fuera de sus instalaciones
economizando en costos y daños de transporte.
Comparación
La profundidad de inmersión del termómetro
para que logre la temperatura del baño depende
de la construcción del termómetro, de la
diferencia de temperatura entre el baño y el
medio ambiente, de la capacidad de
transferencia de calor del baño y de la
estabilidad de la temperatura en el baño. Una
regla de oro para la profundidad de inmersión
es: de 10 a 15 veces el diámetro del termómetro
mas la longitud del sensor.
Esta longitud podría aumentarse para altas o
bajas temperaturas de calibración y cuando el
diámetro del termómetro es significativamente
más pequeño que el diámetro interno del pozo
donde está inmerso.
Una prueba simple para determinar si la
profundidad de inmersión es correcta o no,
consiste en sacar el termómetro unos 2 cm y
observar si las lecturas cambian. Si se continúa
sacando el termómetro, se puede confirmar la
mínima profundidad de inmersión de ese
termómetro.
Calibraciones trazables
En calibración, una medición trazable es aquella
en que desde el comienzo y hasta el fin de la
calibración, esta puede ser identificable con
valores patrón.
No existen periodos de tiempo asociados con la
trazabilidad. De aquí que una cadena de
trazabilidad muy larga puede tener varios años
entre el comienzo y el fin de la misma.
Tener una ruta trazable no garantiza buenas
mediciones. Las buenas mediciones pasan por el
personal de laboratorio, equipo, medio ambiente
y procedimientos.
En el Reino Unido hay un órgano independiente
(NAMAS ) que monitorea el trabajo de sus
Laboratorios Acreditados para asegurarse que la
calibración final es sensiblemente trazable a
reconocidos estándares nacionales.
El término “reconocidos estándares nacionales”
significa que los estándares primarios de otro
país se pueden utilizar en cuanto exista un
acuerdo de cooperación entre esos países.
Sensores de temperatura
Los sensores en generales son dispositivos
capaces de detectar magnitudes físicas
como temperatura y humedad. Para poder
conocer lo que los sensores leen, estos
transforman las magnitudes medidas en
señales eléctricas, que después de ejecutarla
muestran los resultados obtenidos de la
medición.
Ahora bien, para este caso particular se
usaron dos sensores, el LM35 y el Dallas
DS18S20. A continuación se muestra una
descripción de cada uno:

LM35
El LM35 es un sensor de temperatura con
una precisión calibrada de 1ºC. Puede
medir temperaturas en el rango que abarca
desde -55º a + 150ºC. La salida es muy
lineal y cada grado centígrado equivale a 10
mV en la salida.

Bajo costo.

Baja impedancia de salida.
Su tensión de salida es proporcional a la
temperatura, en la escala Celsius. No
necesita calibración externa y es de bajo
costo. Funciona en el rango de alimentación
comprendido entre 4 y 30 voltios.
Como ventaja adicional, el LM35 no
requiere de circuitos adicionales para su
calibración externa cuando se desea obtener
una precisión del orden de ±0.25 ºC a
temperatura ambiente, y ±0.75 ºC en un
rango de temperatura desde 55 a 150 ºC.
La baja impedancia de salida, su salida
lineal y su precisa calibración inherente
hace posible una fácil instalación en un
circuito de control.
Debido a su baja corriente de alimentación
(60uA), se produce un efecto de
autocalentamiento reducido, menos de 0.1
ºC en situación de aire estacionario.
El sensor se presenta en diferentes
encapsulados pero el más común es el to-92
de igual forma que un típico transistor con
3 patas, dos de ellas para alimentarlo y la
tercera nos entrega un valor de tensión
proporcional a la temperatura medida por el
dispositivo. Con el LM35 sobre la mesa las
patillas hacia nosotros y las letras del
encapsulado hacia arriba tenemos que de
izquierda a derecha los pines son: VCC Vout - GND.
Sus características más relevantes son:
La salida es lineal y equivale a 10mV/ºC
por lo tanto:

+1500mV = 150ºC
Precisión de ~1,5ºC (peor caso), 0.5ºC
garantizados a 25ºC.
+250mV = 25ºC

No linealidad de ~0,5ºC (peor caso).

Baja corriente de alimentación (60uA).

Amplio rango de funcionamiento
(desde -55º a + 150ºC).
-550mV = -55ºC
Funcionamiento: Para hacer un termómetro
lo único que se necesita es un voltímetro
bien calibrado y en la escala correcta para
que nos muestre el voltaje equivalente a
temperatura. El LM35 funciona en el rango
de alimentación comprendido entre 4 y 30
voltios.
Puede conectarse a un conversor
Analógico/Digital y tratar la medida
digitalmente, almacenarla o procesarla con
un µControlador o similar.
El LM35 puede ser aplicado fácilmente de
la misma manera que otros sensores de
temperatura integrados al circuito. Puede
ser pegado o cementado a una superficie y
su
temperatura
estará
dentro
de
aproximadamente 0.01˚C de la superficie
de la misma.
Esto supone que la temperatura del aire del
ambiente es casi la misma que la de la
superficie; si la temperatura del aire fuera
más alta o baja que la de la superficie, la
temperatura del LM35 sería una
temperatura intermedia entre la temperatura
de la superficie y la del aire. Esto es
especialmente cierto para el empaque
plástico TO-92, donde los conductores de
cobre son el principal camino térmico para
transportar calor hacia el dispositivo, de
manera que su temperatura esté más cerca
de la del aire que la de la superficie.
Para minimizar este problema, hay que
asegurarse de que la conexión al LM35 es
mantenida a la misma temperatura que la
superficie de interés. La forma más fácil de
hacerlo es cubrir estos cables con una gota
de resina epoxy que se asegurará de que los
conductores y cables estén a la misma
temperatura que la superficie, y que la
temperatura del LM35 no será afectada por
la del aire.
El empaque de metal TO-46 puede ser
soldado a una superficie de metal o tubería
sin dañarse. Por supuesto, en ese caso la
terminal-V del circuito estará conectada a
tierra hacia ese metal.
El LM35 puede ser montado dentro de un
tubo de metal con sellado final, y puede ser
sumergido en un baño o atornillado a un
agujero roscado en un tanque. Como con
cualquier IC, el LM35, su cableado
acompañante y sus circuitos deben
permanecer aislados y secos, para evitar
fugas y corrosión. Esto es importante si el
circuito debe operar a temperaturas frías
donde puede ocurrir condensación.
Revestimientos impresos en el circuito y
barnices como Humiseal y pinturas o gotas
de resina epoxy son usadas frecuentemente
para asegurarse de que la humedad no
pueda corroer el LM35 o sus conexiones.
Estos dispositivos son a veces soldados a
una aleta de calor pequeña ligera, para
disminuir la constante de tiempo térmico y
acelerar la respuesta en aire con
movimiento lento. Una pequeña masa
térmica puede ser añadida al sensor, para
dar una lectura más estable a pesar de
pequeñas desviaciones en la temperatura
del aire.
Usos: El sensor de temperatura puede
usarse para compensar un dispositivo de
medida sensible a la temperatura ambiente,
refrigerar partes delicadas del robot o bien
para loggear temperaturas en el transcurso
de un trayecto de exploración.

Dallas DS18S20
El termómetro digital DS18S20 provee
medidas de temperatura centígradas en 9bits y tiene una función de alarma con
puntos gatillo programable por el usuario.
El DS18S20 se comunica por un puerto bus
de un cable que por definición solo requiere
un cable de datos para comunicación con un
microprocesador
central.
Opera
en
temperaturas en un rango de -55°C to
+125°C y tiene una precisión de 0.5°C en
un rango de –10°C to +85°C. Además
puede obtener energía del cable de datos
(“energía
parásita”)
eliminando
la
necesidad de una fuente de energía externa.
Cada DS18S20 tiene un código serial único
de 64-bits, que permite que múltiples
DS18S20s funcionen en el mismo bus de 1
cable;
así,
es
simple
usar
un
microprocesador para controlar muchos
DS18S20s distribuidos sobre un área
grande.
Aplicaciones
que
pueden
beneficiarse de esta característica incluyen
controles ambientales HVAC, sistemas de
monitoreo de la temperatura dentro de
edificios, equipo o maquinaria, y monitoreo
de procesos y sistemas de control.
La ROM de 64-bits almacena el código
serial del dispositivo. La memoria del bloc
de notas contiene el registro de temperatura
de 2-bytes que almacena el resultado digital
del sensor de temperatura. En adición, el
bloc de notas provee acceso a los registros
de alarma superior e inferior de 1-byte (TH
and TL). El registro TH y el TL son no
volátiles (EEPROM), así que serán
retenidos cuando el sensor sea apagado.
suministra energía al dispositivo cuando la
señal del bus está baja. Este método de
derivar energía del bus de un cable es
conocido como “energía parasitaria”. Como
alternativa, el DS18S20 también puede usar
energía de una fuente externa en VDD.
Ensayo
El ensayo consistió en medir la temperatura con
los dos sensores mencionados durante un
tiempo de 20 minutos, en el cual se garantizo
que esta magnitud fuera constante; cabe
mencionar que la temperatura de referencia fue
de 19.5 °C.
De las mediciones hechas se obtuvieron las
siguientes gráficas y tablas:

Gráficas:

Tablas:
El DS18S20 usa el protocolo de bus de 1
cable exclusivo de Dallas que implementa
la comunicación usando una señal de
control. La línea de control requiere una
resistencia débil ya que todos los
dispositivos están conectados al bus por
medio de un puerto de 3 estados o de
drenaje abierto. (El pin DQ en el caso del
DS18S20). En este sistema de bus, el
microprocesador identifica y se dirige a
dispositivos en el bus usando el código de
64 bits único de cada dispositivo. Como
cada uno tiene un código único, el número
de dispositivos que pueden ser dirigidos en
un bus es virtualmente ilimitado.
Otra característica del DS18S20 es la
habilidad de operar sin una fuente de poder
externa. La energía es suministrada a través
de la resistencia del bus de 1 cable por
medio del pin DQ cuando la señal del bus
está alta. La señal del bus alta también
carga un capacitor interno (CPP), el cual
Ver anexo # 3
A simple vista se puede ver que los resultados
obtenidos eran los esperados, el sensor Dallas al
ser un sensor digital y de mayor precisión,
marco la temperatura que había en el lugar y lo
hizo durante todo el tiempo que duro el ensayo,
es decir que este fue preciso y exacto. Por otra
parte, el sensor ML35 presenta temperaturas
muy variables a lo largo del ensayo, y durante
este nunca marco la temperatura correcta, lo
cual muestre que este es poco preciso y exacto.
De igual forma, al observar los valores
estadísticos se puede ver que lo dicho en el
párrafo anterior es totalmente cierto. La media
del sensor Dallas fue de 19,5 °C, con una
desviación estándar de 0, es decir que ninguna
medición se alejó de la media, o mejor aun,
todos los datos fueron iguales a esta; es decir
todos fueron de igual magnitud. En cuanto al
sensor ML35, se pude ver que este, en su valor
máximo, estuve un grado por debajo del valor
de la temperatura, además, sus mediciones
variaron en un rango de 0.5 °C y presentaron
una desviación estándar de 0.2°C, lo cual
también muestra la poca exactitud y precisión.
Se podría calibrar el sensor ML35 con el sensor
Dallas, ya que este último tiene una calibración
mejor, lo cual se ve reflejado en su precisión y
exactitud. Para ello se podría usar el método de
la comparación explicado anteriormente,
Conclusiones
Si bien se sabía desde un comienzo que la
metrología es de suma importancia para un gran
número
de
profesiones,
este
trabajo,
enfocándose a la temperatura, permitió explicar
como se calibran los equipos, que unidades de
medición se manejan y como funcionan algunas
de los sensores mas comunes.
Además, se pudo ver como los sensores, que
deberían marcar la misma temperatura,
presentan una diferencia de mas de un grado
Centígrado, lo cual muestra una vez más lo
importante que es la metrología, ya que si se
tomara el sensor ML35 y se tomaran datos con
este, tanto los datos como las conclusiones
obtenidas a partir de este no tendría ninguna
validez, ya que el equipo no esta calibrado y por
tanto arrojaría datos poco confiables.
Bibliografía

2010. Ds 18S20 High-Precision 1Wire Digital Thermometer. 20 de




Mayo
de
2012
<http://datasheets.maximic.com/en/ds/DS18S20.pdf>.
Dave Ayres, Anne Blundell.
«Isotech China.» 2011. Calibración
Termometros. 18 de Mayo de 2012
<http://www.isotechchina.com/pdfs/tempcal-es.pdf>.
Instrument, Texas. 2011. LM35
Precision Centigrade Temperature
Sensors. 20 de Mayo de 2012
<http://www.ti.com/lit/ds/symlink/l
m35.pdf>.
Universidad Nacional De Colombia,
Sede Medellin. ¿Como se mide la
temperatura? 2010. 23 de Mayo de
2012
<http://www.virtual.unal.edu.co/cur
sos/sedes/medellin/nivelacion/uv000
07/lecciones/unidad3/energia_pagin
a4p.html>.
X-Robotics. 2012. 21 de Mayo de
2012
<http://www.xrobotics.com/sensores.htm>.
Anexo # 1
Kelvin
Grados Celsius
Grados Fahrenheit
Grado Réaumur
Kelvin
Grados Celsius
Grados Fahrenheit
Grado Réaumur
Tomado de http://es.wikipedia.org/wiki/Temperatura
Anexo # 2



CARACTERÍSTICA
TEMPERATURA
TERMÓMETRO
PUNTO FIJO
FÍSICA
°C
INTERPOLACION
Argón
Triple punto
-189,3442
SPRT
Mercurio
Triple punto
-38,8344
SPRT
Agua
Triple punto
0.010
SPRT
Galio
Punto de fusión
29,7646
SPRT
Indio
Punto solidificación
156,5985
SPRT
Estaño
Punto solidificación
231,928
SPRT
Zinc
Punto solidificación
419,527
SPRT
Aluminio
Punto solidificación
660,323
SPRT
Plata
Punto solidificación
961,78
SPRT
Oro
Punto solidificación
1064,18
RT
SPRT: Termómetro estándar de resistencia de platino
RT: Termómetro de radiación
Triple punto: Estados sólido, líquido y gaseoso en equilibrio.
Anexo # 3
Máximo (°C)
Mínimo (°C)
Moda (°C)
Media (°C)
Desviación Estándar (°C)
Sensor LM35
18.54
18.06
18.06
18.252
0.235151015
Sensor Dallas DS18S20
19.5
19.5
19.5
19.5
0
Diferencia
1.44
0.96
1.44
1.248
0.235151015
Inserte aquí su artículo y procure dejarlo en el mismo
formato es decir EN BLANCO al final