Download Reloj de sol

Document related concepts

Medición wikipedia , lookup

Técnica de Van der Pauw wikipedia , lookup

Calibración wikipedia , lookup

Mediciones eléctricas wikipedia , lookup

Klaus von Klitzing wikipedia , lookup

Transcript
Metrología, Universidad Nacional de Colombia
REVISTA ARTICULOS GRUPO 12
Universidad Nacional de Colombia
2012
1
Metrología, Universidad Nacional de Colombia
INDICE
ARTÍCULO
INTEGRANTES
TÍTULO
Pag
1
G12N05
El tiempo en el tiempo
3
El Efecto Hall Patrón de Resistencia
6
2
G12N10giovanni
G12N32juandavid
3
G12N33CAROLINA
G12N6ANDRES
10
Incertidumbre y su estimación
G12N16fernando
4
5
6
7
8
9
10
2
Metrología, Universidad Nacional de Colombia
El tiempo en el tiempo
Edward Norberto Bautista Rodríguez
Universidad Nacional de Colombia
Ingeniería Mecánica
Resumen, A lo largo de la historia, la humanidad ha tenido una gran necesidad de medir y conocer el tiempo
en el que se desarrolla, es por eso que se han desarrollado una gran variedad de relojes que serán objeto de
nuestra investigación, incluyendo las influencias de la época, la tecnología, el ambiente y la necesidad.
Reloj de sol
La forma mas sencilla de medir el tiempo es el uso
del sol, pues es
este el regulador
universal
del
paso del tiempo,
sin el viviríamos
algo así como una
noche eterna, sin
darnos cuenta del
paso de una hora
o un día.
Es por eso que es
tal ves la forma mas antigua de medir el tiempo, se
tiene conocimiento de relojes solares desde 4000 a.C.
usados por los chinos, también los usaban los
egipcios y los incas, pero su uso se atribuye al
filosofo Jonio Anaximandro en el siglo VI a.C.
Clepsidra y reloj de arena
Este reloj tiene su fundamento en un objeto mas
antiguo
llamado
la
clepsidra, que es un reloj
de agua, el cual era
mucho mas útil y preciso
que el reloj solar pues no
dependía de un agente
externo a él, como es el
sol, consistía en un vaso,
en
cuya
extremidad
inferior se encontraba un tubo angosto por donde
goteaba el agua que caía en otro vaso. Sobre este
recipiente, había una escala graduada y al llenarse,
indicaba las horas transcurridas. La clepsidra, data de
los años 3000 a.C. usada por los egipcios, pero
perfeccionada por griegos y romanos.
El reloj de arena no nada
diferente a una clepsidra
que en lugar de agua
tiene arena, pero cada
que la arena pasa de un
lugar al otro, hay que
girarlo para volver a
empezar la medición de
otro periodo de tiempo,
que por lo general era de
una hora.
Aunque se sabe que su invención es muy antigua, la
primera de la que se tiene conocimiento es de 1338.
Relojes mecánicos
Aún no se sabe quién inventó el primer Reloj
Mecánico, lo que
se sabe es que los
primeros que se
han
encontrado
son del año 1290.
Su
mecanismo
consiste en un
conjunto de ruedas
giratorias
accionadas por un
peso colgado de
una cuerda.
Pero en 1670 un
invento
de
William Clement inspirado en las anclas de los
buques funcionaba con el vaivén de un péndulo que
mece la ancora de tal manera que se traba y después
se destraba en cada uno de los dientes de la rueda lo
que a su ves permite un movimiento preciso.
Tan solo cinco años después apareció Hyugens con
otro hallazgo de gran importancia como lo es el
volante con muelle en espiral, este reloj era el más
exacto hasta ese momento, con un error de solo 5
minutos diarios. El reloj de tipo péndulo más
conocido es el llamado Reloj Cucú. [1]
3
Metrología, Universidad Nacional de Colombia
Reloj eléctrico
En 1840 Alexander Bain construyó un reloj
eléctrico accionado por la atracción y repulsión
eléctrica.
Reloj de cristal de
cuarzo
En 1920, Warren
Marrison y J.W.
Horton construyen el
primer
reloj
de
cuarzo en los Bell
Telephone
Laboratories.
Son
relojes que se caracteriza por poseer una pieza
de cuarzo que sirve para generar los impulsos
necesarios a intervalos regulares que permitirán la
medición del tiempo. El cuarzo se talla habitualmente
en forma de lámina y se introduce en un cilindro
metálico. Éste tiene por función la protección del
mineral. Para que vibre el cristal de cuarzo, debe ser
alimentado por un campo eléctrico oscilante generado
por un circuito electrónico. Son relojes muy exactos,
sólo se atrasan o adelantan 3 segundos al año.
[2]
Reloj atómico
Reloj nuclear
Los relojes atómicos son actualmente los relojes más
exactos del mundo y se basan en las propiedades
físicas que tienen las fuentes de emisión de cesio. El
primer reloj atómico de cesio fue construido
en 1955 en el Laboratorio Nacional de Física (NLP),
en
Inglaterra.
Sus
creadores
fueron Louis
Essen y John V.L Parry
A pesar de la precisión alcanzada por los relojes
atómicos, los científicos parecen no estar conformes
aun con un error de un segundo cada 138millones de
años y por eso se encuentran trabajando en el
desarrollo de un nuevo reloj, que será conocido como
reloj nuclear, de este se tiene poca información
debido a que aun se encuentra en etapa de diseño.
Los relojes atómicos establecieron una nueva forma
de medir el tiempo, según este patrón, un segundo se
corresponde con 9.192.631.770 ciclos de la radiación
asociada a la transición hiperfina desde el estado de
reposo del isótopo de cesio-133. La precisión
alcanzada con este tipo de reloj atómico es tan
elevada que admite únicamente un error de un
segundo en 30.000 años, pero el más exacto del
mundo actualmente se encuentra en el NPL de
Londres y tarda 138millones de años en perder un
segundo.
La precisión extrema de este reloj, es cien veces
superior
a
la
de
los
actuales
relojes
atómicos, proviene del núcleo de un solo ion de torio.
El reloj nuclear podría ser útil para algunas
comunicaciones confidenciales y para el estudio de
teorías fundamentales de la física. Asimismo podría
añadir precisión al sistema de posicionamiento
global, que se sustenta ahora en relojes atómicos.
Los relojes mecánicos emplean un péndulo que
provee las oscilaciones con las que se mide el tiempo.
En los relojes modernos son cristales de cuarzo los
que proveen las oscilaciones de alta frecuencia que
4
Metrología, Universidad Nacional de Colombia
operan como una horquilla de afinación musical en
lugar del antiguo péndulo.
La precisión de los relojes atómicos proviene de las
oscilaciones de los electrones en los átomos
inducidas por rayo láser. Pero a estos electrones
pueden afectarles los campos magnéticos y eléctricos,
y por eso los relojes atómicos a veces sufren una
desviación de unos cuatro segundos a lo largo de la
existencia del universo.
Pero los neutrones son mucho más pesados que los
electrones y están agrupados con más densidad en el
núcleo atómico de manera que son menos
susceptibles a tales trastornos ambientales.
Según el artículo del Instituto Tecnológico de
Georgia, para crear las oscilaciones los
investigadores planifican el uso de un láser que opera
en frecuencias de petaherzios -10 elevado a la 15
potencia, ó 1.000.000.000.000.000 oscilaciones por
segundo- para hacer que el núcleo de un ion de torio
229 pase a un estado de energía más elevado.
Los diseñadores tienen otro problema: para que el
reloj nuclear sea estable hay que mantenerlo a
temperaturas muy bajas de apenas decenas de
microkelvin y para producir y mantener tales
temperaturas habitualmente los físicos usan un
refrigerante del laser, pero en este sistema eso se
presenta como un problema, porque la luz del laser
también se usa para crear las oscilaciones que marcan
el paso del tiempo. [3]
Referencias
[1]
http://www.profesorenlinea.cl/mediosocial/Relo
jHistoria.htm
[2] http://www.wickedmagazine.org/2011/08/el-relojatomico-es-el-mas-preciso-del.html
[3] http://www.elespectador.com/tecnologia/articulo333157-disenan-reloj-nuclear-100-veces-maspreciso-el-atomico-actual
5
Metrología, Universidad Nacional de Colombia
EFECTO HALL PATRÓN DE RESISTENCIA
Nelson Castro
[a]
Juan D. Rodríguez G. [b]
Palabras clave: Voltaje Hall / Campo Magnético /Campo eléctrico / Corriente /Metrología
Resumen
La calidad es el factor principal al momento de aumentar la productividad en cualquier organización, solo es posible llegar a ello
mediante la utilización de la metrología pues sus normas conllevan responsabilidad, reproducibilidad y confiabilidad en los
procesos llevados a cabo. Una de las partes dentro de la metrología es el uso de patrones con trazabilidad internacional. Uno de
estos patrones corresponde a la resistencia el cual hace uso del efecto Hall cuántico para reportar su correspondiente valor, y se
elabora de tal forma que sea posible reproducir en cualquier parte del planeta.
Abstract
Quality is the main factor when increasing productivity in any organization; you can only achieve this through the use of metrology
because its rules include liability, reproducibility and reliability of the processes carried out. A party in metrology is the use of
standards with international traceability. One of these patterns corresponds to the resistance which makes use of the Hall effect for
reporting the corresponding quantum value, and is prepared so that it can play anywhere in the world.
Email: [a] [email protected]
[b]
[email protected]
1. Introducción
Productividad, una palabra que soporta una gran cantidad de
procesos sincronizados y altamente eficientes que se encuentran
enmarcados por la calidad, uno de estos elementos de gran
importancia es la metrología. Se obtiene calidad si las mediciones
que realizan equipos o instrumentos de medición son confiables en la
magnitud que el proceso lo requiera, con un nivel de exactitud y
certeza que solo es otorgada por la calibración de estos elementos,
que además confieren un nivel alto de precisión a cada medida
realizada. Esta calibración no es sino una comparación con patrones
estándar nacionales e internacionales reconocidos, en una cadena
ininterrumpida llamada trazabilidad. Por medio del uso correcto de
la metrología es posible asegurar un cliente satisfecho además de
proteger al consumidor con lo cual se facilita la cooperación
industrial mediante el intercambio de mercancías.
En la metrología el patrón es el pilar de su función, una pieza de estos
patrones corresponde a la resistencia, el cual hace uso del efecto hall
cuántico para reportar valores muy exactos de resistencia que serán
comparados con otros elementos para generar un instrumento o
máquina de medición. El efecto hall en si utiliza los conceptos de
Fuerza de Lorentz, Ley de Coulomb y campos magnéticos además de
aplicaciones como el condensador de placas paralelas y la definición
de corriente como conceptos generales de un fenómeno a escala
normal, sin embargo la real aplicación se encuentra cuando las
temperaturas son muy bajas y los campos magnéticos son muy altos
pues allí en el conductor la energía toma valores discretos, lo cual
hace factible su uso como patrón.
Dentro del campo de la física existen diferentes disciplinas que se
encargan de estudiar fenómenos particulares de la naturaleza con el
fin de dar una explicación científica a estos acontecimientos. Este
artículo incluye conceptos y fundamentos basados en la física de
electricidad y magnetismo, y trabaja términos relacionados con la
metrología en cuanto a la instauración del patrón de resistencia
eléctrica. El tema principal que maneja gira alrededor del fenómeno
físico conocido como “Efecto Hall”, llamado así por Edwin Herbert
Hall quien fundamentó y realizó las demostraciones necesarias
para entender este efecto electromagnético.
Principalmente este artículo pretende dar una breve explicación al
porqué del comportamiento del efecto mencionado anteriormente,
analizando como influyen cada uno de los elementos que actúan en el
proceso total del experimento, con el fin de llegar a relacionar estos
conceptos con las leyes básicas que rigen la electricidad y el
magnetismo. Además, proyecta resaltar la importancia de este
fenómeno en campos como el de la metrología y la vida cotidiana.
2.
Aspectos Generales
2.1 Metrología
Una magnitud física define una característica observable de
un sistema físico. Son magnitudes físicas la longitud, el tiempo, la
masa, la velocidad, la fuerza, el campo eléctrico, etc.
A cada magnitud le corresponde una unidad de medida, de manera de
poder expresar cuantitativamente su valor en una medición o cálculo
referido a un sistema físico. Un sistema de unidades es el conjunto de
unidades asignadas a cada magnitud básica o derivada que se use en
la ciencia o la técnica.
La normalización internacional de pesos y medidas se halla bajo el
control de la Conferencia General de Pesos y Medidas. Las
conferencias se realizan en la actualidad cada cuatro años. La
Conferencia designa el Comité Internacional de Pesos y Medidas,
formado por 18 miembros de países diferentes, se reúne cada año y
controla la Oficina Internacional de Pesos y Medidas (Bureau
International des Poids et Mesures - BIPM), que es el organismo
6
Metrología, Universidad Nacional de Colombia
encargado de asegurar la unificación mundial de las mediciones
físicas. El BIPM se creó en 1875 con la adhesión de 17 estados.
Actualmente 55 estados, adhieren al sistema. Debido a la creciente
complejidad de la definición, control y adecuación de los patrones de
medida a los avances científicos, la Conferencia ha creado Comités
Consultivos (nueve, en la actualidad) sobre diferentes aspectos
metrológicos y desde 1965 publica una revista científica propia,
llamada Metrología, además de las publicaciones realizadas por sus
expertos en distintas revistas científicas internacionales y los distintos
informes de sus cuerpos consultivos y laboratorios propios. En 1960
la Conferencia General de Pesos y Medidas adoptó el llamado
Sistema Internacional de Unidades (SI) que fue adoptado luego por
cada país adherente con particularidades propias. El SI tiene
unidades básicas (consideradas por convención dimensionalmente
independientes) y derivadas (que surgen algebraicamente de
combinaciones de las unidades básicas).
La metrología es un conjunto de reglas y normas que permiten
realizar una correcta medida, con herramientas otorgadas por
instituciones como el BIPM y es desde estas instituciones que
comienza la cadena productiva, pues sin la cuantificación no es
posible realizar ninguna tarea empresarial.
internacional de resistencia eléctrica utilizado para categorizar los
materiales conductores de electricidad.
2.3 Relación con la Metrología
Las mediciones confiables suministradas por instrumentos de
medición precisos y exactos traen consigo la calidad de los
productos. Para asegurar el correcto funcionamiento de los equipos y
tener la certeza de que las mediciones efectuadas son exactas, estos
instrumentos deben ser calibrados, es decir, comparados con patrones
nacionales o internacionales reconocidos, en una cadena
ininterrumpida llamada trazabilidad
El patrón de resistencia establecido gracias al experimento de efecto
Hall cuántico, significó un gran paso no sólo para física, sino también
para la metrología, pues generó un manejo óptimo de las mediciones
de resistencia y aseguró un futuro uso apropiado de la tecnología que
permitió resultados más confiables que han venido beneficiando al
cliente y protegiendo al consumidor. De esta manera, facilitó la
cooperación industrial y el intercambio comercial internacional de
mercancías.
2.2 Descubrimiento
Este fenómeno fue observado por primera vez en la universidad
Johns Hopkins en Baltimore U.S.A. en el año de 1879 por el físico
estadounidense Edwin Herbert Hall.
3.
Física del Efecto Hall
En Octubre del año 1879, el físico Edward Herbert Hall observa un
efecto en el cual la aplicación de un campo magnético intenso sobre
una delgada lámina de oro por la que circula una corriente, produce
una diferencia de tensión transversal al flujo de corriente en la
lámina, esta tensión fue conocida como voltaje Hall.
El experimento realizado por Edward Hall, está esquematizado por
un circuito que consta de una fuente de voltaje conectada en serie a
una resistencia y a una fina lámina de oro, como se muestra en la
figura 1.
Fig. 2. Lámina delgada de un material conductor o semiconductor por
la que fluye una corriente I en dirección x y en la dirección y se
aplica un campo magnético uniforme .
Fig. 1 Efecto Hall en lámina de oro
La diferencia de potencial es generada entre las caras transversales a
las que está conectada la corriente, y su valor es proporcional a la
relación que existe entre la magnitud de la corriente y el valor del
campo magnético.
Para el año de 1980 físico alemán Klaus von Klitzing descubriría el
efecto Hall cuántico, el cual significó la base para el estándar
Fig. 3 Medición del voltaje transversal, Voltaje Hall
7
Metrología, Universidad Nacional de Colombia
La fuerza magnética está definida como:
Esta fuerza actúa sobre los electrones generando una acumulación de
los mismos en el borde c, con lo cual se genera un campo eléctrico
entre las cargas negativas en c y las positivas en a (remitirse a las
figuras2 y 3).
Cuando se alcanza un equilibrio, los electrones ya no son desviados
hacia arriba, por lo cual el campo eléctrico es constante, permitiendo
medir la diferencia de potencial llamada VOLTAJE HALL
.
En donde A es el área de la sección transversal del conductor, y es
igual a:
Finalmente se reemplaza
en la ecuación 6 para obtener la
expresión completa para el voltaje Hall:
A continuación se presenta la deducción de la expresión del voltaje
Hall:
Fuerza Magnética sobre los
portadores
Fuerza Magnética sobre los
portadores
En donde la expresión:
Representa el coeficiente o la resistencia Hall.
En donde
representa el campo eléctrico de las cargas, B el campo
magnético y q la carga.
Debido a que estas dos fuerzas son iguales se tiene que:
Como el voltaje Hall es igual a:
· d representa la distancia entre c y a (figura 3).
Se despeja
3.1 Efecto Hall Cuántico
Antes del descubrimiento del Efecto Hall Cuántico (EHC), utilizado
actualmente para reproducir el ohm en los principales laboratorios
nacionales del mundo, el Ohm se mantenía mediante un conjunto de
resistores de 1 Ω, tipo Thomas.
El segundo descubrimiento clave para la metrología cuántica eléctrica
fue el efecto Hall cuántico, observado por primera vez por Klaus von
Klitzing en 1980. Este efecto puede observarse en dispositivos
semiconductores cuando se les aplican campos magnéticos del orden
de 10 Tesla (100.000 veces el campo magnético terrestre) y se enfrían
a temperaturas inferiores a la del Helio líquido (4,2 K). En estas
condiciones experimentales el dispositivo presenta valores
cuantizados de la resistencia Hall. Se ha comprobado, con una
incertidumbre de partes en 1010 que dichos valores de resistencia son
independientes de variables como la corriente de medida, la
temperatura o el tipo de dispositivo.
3.2 Medición del Voltaje Hall
de la ecuación 4 y se reemplaza en la ecuación 5
obteniendo:
La densidad de los portadores de carga se obtiene midiendo la
corriente en la muestra y esta expresada como:
8
Fig. 4. Medición voltaje Hall
Metrología, Universidad Nacional de Colombia
La figura 4 muestra un dispositivo experimental destinado a medir el
voltaje Hall. Sobre una corriente eléctrica opera un imán que produce
un campo magnético (B). La fuerza magnética que se genera (Fm)
desvía las cargas en movimiento hacia uno de los extremos del cable,
lo que implica una polarización en cada uno de los lados de la
lamina. En consecuencia, entre ambos extremos se establece un
campo eléctrico y una correspondiente diferencia de potencial o
voltaje Hall visible, en mayor o menor medida dependiendo del
material y el grosor de la lámina.
4.
Aplicaciones
Por medio de la obtención experimental del Voltaje Hall, se puede
deducir la velocidad de los portadores de carga junto con su
concentración, debido a que cuando se alcanza el estado de
equilibrio, la fuerza eléctrica ejercida sobre cada carga, se nivela con
la fuerza magnética (ecuación 4). Con esto se comprueba la relación
de proporcionalidad directa que existe entre la corriente eléctrica y el
campo magnético con el voltaje Hall y la relación de
proporcionalidad inversa entre el voltaje Hall y el número de
portadores por unidad de volumen. Consecuentemente, un sensor de
efecto Hall puede determinar la fuerza que realiza un campo
magnético, conociendo la corriente aplicada y vicevers
5.
REFERENCIAS
[1] Serway A. Raymond, Jewett John W. Física para ciencias e
ingeniería con física moderna. Cengage Learning. Séptima Edición.
Volumen 2. págs. 825-827
[2]
“Efecto
Hall”
[En
Línea].
Disponible
en:
http://intercentres.edu.gva.es/iesleonardodavinci/Fisica/Electromagne
tismo/Electromagnetismo07b.htm. Consultado: Junio/2012
[3]
“Efecto
Hall”.
[En
Línea]
Disponible
en:
http://www.sabelotodo.org/electrotecnia/efectohall.html. Consultado:
Junio /2012.
[3]
“Efecto
Hall”.
[En
Línea]
Disponible
en:
http://www.sabelotodo.org/electrotecnia/efectohall.html. Consultado:
Junio /2012.
[4] “Nuevos patrones eléctricos basados en fenómenos cuánticos”.
Ciencia
en
Aragón
(2005).
Disponible:
http://www.aragoninvestiga.org/Nuevos-patrones-electricos-basadosen-fenomenos-cuanticos/.
[5]”CNM-PNE-3, Patrón Nacional de Resistencia Eléctrica en
corriente continua”. Centro nacional de metrología. Disponible:
http://fisica1000017.wikispaces.com/file/view/Patron+Nacional+de+
Resistencia+Electrica+Cenam.pdf
[6]”Laboratorio de metrología”. Icontec internacional. Disponible:
http://www.icontec.org.co/index.php?section=93
Si la fuerza del campo magnético y la corriente son conocidas, el
sensor Hall se puede utilizar como detector de metales o como
detector de componentes magnéticos en general. Este tipo de sensores
se encuentran en circuitos integrados ubicados en impresoras láser,
disqueteras de ordenador, en motores de corriente continua, etc.
Una aplicación interesante del efecto Hall es la posibilidad de
determinar la concentración de iones en la sangre, al igual que la
velocidad de circulación del flujo sanguíneo. Si se aplica un campo
magnético transversal a la corriente sanguínea que fluye por una
arteria, el voltaje Hall generado depende de esa velocidad y teniendo
esa, es posible determinar la concentración de los iones.
9
Metrología, Universidad Nacional de Colombia
INCERTIDUMBRE Y SU ESTIMACIÓN
Resumen
La medición es una base para todo aquello que tiene una representación física, por tanto es una base
importantísima para la misma física, ahora bien sin una forma definida de medida, una forma de revisión,
comprobación de resultados, las bases de las mayorías de cosas, teorías e ideas, estarían planteadas de manera
muy abiertas sin conclusiones definidas con ó sin medidas. A continuación en este artículo comentaremos la
definición de la medida y de la incertidumbre de manera teórica, con algunos ejemplos, haciendo énfasis en la
incertidumbre, a la cual se le dará mas importancia ya que le da precisión a la medida, ya que sin esta no
serviría de nada el hecho de medir si no existe confiabilidad en la medida.
INTRODUCCIÓN
Con respecto a las medidas, la unidad con la cual se debe
medir debe presentar unas condiciones como son:
La medición es un procedimiento típico de la ciencia, en el
cual se compara el objeto a medir con un patrón seleccionado
cuya magnitud física es comparable y se desea medir cuantas
veces el patrón es el objeto a medir.
-
Esta cantidad desconocida en magnitud y queremos medir
será mesurada con un objeto de referencia ya establecido en
un sistema como el sistema internacional ó el sistema ingles,
los cuales son los más utilizados.
-
Ahora bien las medidas, debido a una serie de factores, pueden
verse afectadas, por ejemplo, la persona que mide debido al
ángulo en que mide, ve de manera errónea el dato, ó quizás el
instrumento no está bien calibrado, ha sido modificado con
esfuerzos plásticos, ó el ambiente ha modificado la precisión
del instrumento, incluso es posible que el instrumento diga
que un porcentaje o la medida de error. Aquí es donde por el
afán o por la necesidad de tener una medida exacta se busca
hallar una cota que le dé límite al error, donde la
incertidumbre no supere lo necesario, si bien lo necesario
puede ser que la incertidumbre no supere un limite pues los
cambios en los resultados afecten de manera progresiva el
error aumentándolo, o quizás al necesitar el resultado de una
manera exacta se desarrollara un objeto que afectará o el cual
tendrá características de tolerancia, si bien el porcentaje de
error es muy alto es muy probable que el objeto tenga
problemas, inconsistencias o sea obsoleto.
DESARROLLO
Antes de profundizar con el tema de errores e incertidumbre
se planteará de manera breve las basas sobre las cuales se
realizan pruebas de incertidumbre, es decir los objetos y
patrones de medida.
-
Inalterable (no debe cambiar la medida con el tiempo
ni con quien la realice).
Ser universal (debe ser utilizada en lo posible por
todos y de la misma forma).
Debe ser fácilmente reproducible (ya que si es difícil
reproducirla sería difícil para cualquiera o en su
mayoría todo el que necesite hacer medidas tendría
un gran problema consiguiente el patrón de unidad).
Ahora no todas las medidas son universales, pero tienen la
tendencia a una búsqueda de la universalidad siendo así la más
utilizada el sistema de unidades del sistema internacional (S.I).
Una medición directa es cuando tenemos un instrumento de
medida con las condiciones mencionadas, comparando con
este el fenómeno o la naturaleza física a medir, es claro
comentar que un instrumento de medida de cierto tipo solo
aplica para medir fenómenos o cantidades del mismo tipo de
magnitud.
Existe también la forma de medir por medidas reproducibles,
que al ser efectuadas una serie de comparaciones de la misma.
Cuando al efectuar una serie de comparaciones entre la misma
variable y el aparato de medida y se obtiene el mismo
resultado o uno bastante cercano esta medida es reproducible
ya que tiene cierto grado de confianza, en esta capacidad de
reproducción está basado los patrones de medidas del S.I.
La medida estadística está basada al efectuar serie de
comparaciones entre la misma variable y el aparado de medida
variables se obtienen distintos resultados, este tipo de medida
es aplicables para cuando el fenómeno a medir se puede
presentar aleatorio, como por ejemplo medir cierta
particularidad de un grupo de personas a cierta tendencia.
10
La medición indirecta es cuando una medición directa no es
aplicable por la magnitud de el objeto a medir es difícil de
medir por comparación directa, esto suele ocurrir cuando el
objeto a medir es muy pequeño, muy grande y depende de
obstáculos de otra naturaleza. Entonces basándonos en otros
tipos de variables medimos el objeto, como por ejemplo hallar
la altura de un edificio en función de longitud de su sombra y
el ángulo de incidencia de la luz, o la comparación entre dos
objetos y su sombra con la misma incidencia de la luz pero sin
saber el ángulo de incidencia.
Ahora bien todas las medidas tienen un cierto error una
incertidumbre a saber el dato exacto medido. Por esto es
necesario hallar una cota ó intervalo en el cual varía el
resultado medido y el que se tiene entendido como el
verdadero. No siempre se tiene un resultado verdadero,
entonces esta incertidumbre es el resultado de varias medidas
del objeto a medir. Este valor “real” es una convención en la
cual es la estimación adecuada de la zona de valores en donde
se encuentra ale valor correcto del objeto mesurado y que en
términos teóricos o prácticas es imposible de hallar con
certeza completa, por eso nos referimos a la incertidumbre de
una medida.
el valor asociado al error de precisión más confiable
es el instrumento.
-
Errores estadísticos ó aleatorios.
Como dijimos antes, el tipo de medida estadística es
el resultado de varias fuentes que no pueden ser
controladas y que de manera aleatoria generan un
resultado que puede que no tenga un valor “real” con
el cual comparar. Así también estos errores pueden
presentarse en las medidas comunes como es al medir
unos fenómenos se vea afectado pro fuentes
aleatorias que afecten al objeto a medir o el
instrumento mensurador.
Una forma de calcular el error en la medida es repetir varias
veces la medida, si obtenemos el mismo resultado el por que
la apreciación el instrumento no es suficiente para manifestar
los errores; en cambio si resultan diferentes valores podemos
apreciar de manera más fácil los errores que estamos
cometiendo. En este caso aplicamos el método de estadística
descriptiva en el cual hallamos el valor medio, y el error será
equivalente a la desviación típica de los valores obtenidos.
En el Vocabulario Internacional de metrología (VIM) se
encuentra definida la incertidumbre como “un parámetro
asociado al resultado de una medición que caracteriza la
dispersión de los valores que razonablemente podrían ser
atribuidos al mesurando”.
El error en las medidas son las incertidumbres, estos errores
pueden ser clasificados en:
-
Errores sistemáticos.
Los cuales se basan en la presencia de un factor que
no se ha tomado en cuenta y que afecta de manera
significativa el resultado de la medida. Estos errores
se repiten constantemente al no tenerse en cuenta en
todas las medidas dando un resultado siempre de la
misma forma. Por ejemplo medir siempre con una
misma regla, esta regla sin estar calibrada de manera
correcta.
-
Errores de observación.
Este error es resultado del observador, la persona que
mide, al observar por ejemplo en ángulo equivocado,
o no calibrar de manera adecuado ó tomar el dato al
tiempo exacto. En otras palabras errores humanos al
no tener cuidado.
-
Errores de precisión del aparato de medida.
Todo instrumento de medida presenta una limitación
en la precisión. Este error de precisión puede darse de
manera explicita en el instrumento o puede que ni
siquiera se mencione, este demuestra la calidad y
confiabilidad del instrumento. Entre más pequeño es
Cuando la medición que realizamos la hacemos de manera
indirecta, a partir de otra que ya conocemos, estas contienen
un margen de error el cual será necesario hallar con el valor
indirecto y que este además se transmite. A esta transmisión
de errores de las magnitudes calculadas de manera indirecta
se le llama propagación de errores. Para hallar este error
normalmente es utilizar el método de la diferencia total, el
cual se basa en que todos los cálculos están basados en
funciones, si estas funciones presentan varias variables y
corresponden a combinaciones lineales de diferenciales cuyos
coeficientes son los gradientes de la función. Supongamos la
magnitud a medir es r= f(X,Y,Z), que es una función de otras
magnitudes X, Y , Z, que se ha medido directamente
incluyendo sus incertidumbres directas, obteniéndose entonces
los valores de:
La incertidumbre entonces de la magnitud r viene dada por:
Existen otras formas de obtener un valor de una magnitud a
partir de medidas directas, como por ejemplo la regresión
lineal, el cual será aplicable cuando la relación entre dos
magnitudes X y Y es lineal. En otras palabras de la forma.
de como se hace la medida el proceso a hallar la incertidumbre
tiene determinados pasos.
Y= mx+b
Dentro de las medidas entonces no solo se hacen mediciones
directas por comparación sino por mediciones indirectas o
cálculos a los cuales les debe someter un redondeo y unos
pasos para asegurar la fiabilidad de los procesos y de los
resultados.
Siendo “m” la pendiente de la función y “b” la constante que
define la ordenada en el origen. Cuando dos magnitudes se
relacionan de manera lineal, la gráfica que generan es una
línea de manera lineal que corta al eje en el origen en (0, b). Si
obtenemos medidas directas o indirectas entre los valores que
generaron la recta no estarán perfectamente alineados.
Utilizando la regresión lineal podemos obtener la recta que
más se aproxima a los puntos.
Cabe también mencionar las reglas del redondeo, en la cuales
después de tomar medidas normalmente se aplican cálculos
sobre estos datos dando como resultado otros datos con
definiciones derivadas de las primeras medidas. Las
cantidades físicas que se han medido en el experimento y las
constantes con las que se trabajan en los cálculos se toman un
número finito de decimales. Los resultados de las operaciones
son números que en principio no tienen un valor exacto, por
ello mismo el número de cifras significativas es limitado pues
no tiene sentido considerar más cifras si estas muestran error.
Supongamos que queremos redondear un número que quede
representado con n cifras significativas.
-
Si (n+1)-esima cifra suprimida es menor que 5, la nesima cifra conservada no varía.
- Si (n+1)-esima cifra suprimida es mayor que 5, la nesima cifra conservada aumenta e una unidad.
- Si la (n+1)-esima cifra suprimida es igual a 5 se
aplica lo siguiente:
1) Si entre las cifras suprimidas además del 5 son
distintas de cero la n-esima cifra conservada aumenta
en 1.
2) Todas las cifras suprimidas salvo el 5 son ceros; la nesima cifra conservada aumenta en 1, si el numero de
cifras suprimidas es impar, no varía si es par.
A pesar de la necesidad de medir un algo es necesario también
saber con qué finalidades, si bien solo es aprender a medir ó
medir algo que no necesita mucha precisión no hace falta
hacer un proceso riguroso como el descrito, en cambio si el
valor tiene que ser preciso, pues será reproducible ó según la
precisión planteará otra cosas ameritará el proceso y el más
sumo de los cuidados en cuanto a la mesura y a el resultado de
hallar la incertidumbre y los errores.
REFERENCIAS
-
-
-
CONCLUSIONES
Todas las medidas tienen una representación física y a cada
medida tiene inherente a ella un error ya que el valor exacto
preciso de la mesura es imposible de hallar de manera teórica,
y el valor que consideramos verdadero es un resultado dado
como convención que después de un proceso determinado con
pasos definidos y que debe ser siempre el mismo se obtiene
una media al a cual se tiende a tener el mismo resultado con
un porcentaje de media ó una cota, que además dependiendo
-
-
BECKWITH, Thomas G. MARANGONI, Roy D.
LINHARD
V.
John
H.
Mechanical
measurements 2007 Pearson/Prentice Hall 6th
ed.ISBN 0201847655
http://www.cartesia.org/article.php?sid=187
http://www.mitecnologico.com/im/Main/Sensibilidad
Incertidumbre
Introducción a la Física experimental, Introducción a
la Teoría de Errores. Universidad de la Laguna.
D. C. Baird. Experimentation: An Introduction to
Measurement Theory and Experiment Design.
Prentice Hall, 1962.
J. R. Taylor. An Introduction to Error Analysis.
University Science Books, 1982.
Apuntes de Laboratorio de Física General, editado
por la Facultad de Ciencias de la UNAM, 1976
Federick J. Buche, FISICA GENERAL, Mc Graw
Hill, 1999.
"Mecánica elemental" de Juan G. Roederer.
R. Resnick y D. Halliday, Física, Vol. II, 4ª Ed.
(Addison-Wesley Interamericana, México, D.F.
1995).
D.C. Baird, Experimentation, 3ª Ed. (Prentice Hall,
Nueva York, 1999).
3. J. Miranda, Evaluación de la Incertidumbre en
Datos Experimentales (Instituto de Física, UNAM,
México, 2000).
Inserte aquí su artículo y procure dejarlo en el mismo
formato es decir EN BLANCO al final