Download Los circuitos integrados se encuentran en todos
Document related concepts
no text concepts found
Transcript
¿En qué consisten los semiconductores? Un semiconductor es un componente que no es directamente un conductor de corriente, pero tampoco es un aislante, dependiendo de diversos factores, como por ejemplo el campo eléctrico o magnético, la presión, la radiación que le incide, o la temperatura del ambiente en el que se encuentre. En los semiconductores se producen corrientes producidas por el movimiento de electrones como de las cargas positivas (huecos). Los semiconductores son aquellos elementos pertenecientes al grupo IV de la Tabla Periódica (Silicio, Germanio, etc. Generalmente a estos se le introducen átomos de otros elementos, denominados impurezas, de forma que la corriente se deba primordialmente a los electrones o a los huecos, dependiendo de la impureza introducida. Otra característica que los diferencia se refiere a su resistividad, estando ésta comprendida entre la de los metales y la de los aislantes. 1- Tipos de Conductores Debemos dividir a los semiconductores en dos grupos: intrínsecos y extrínsecos. Los semiconductores extrínsecos son aquellos a los que se les ha dopado de alguna forma, produciendo así un semiconductor tipo P o del tipo N. Y los intrínsecos son los que no han sufrido ninguna clase de dopaje 1.1 Conductores Intrínsecos: Se dice que un semiconductor es “intrínseco” cuando se encuentra en estado puro, o sea, que no contiene ninguna impureza, ni átomos de otro tipo dentro de su estructura. En ese caso, la cantidad de huecos que dejan los electrones en la banda de valencia al atravesar la banda prohibida será igual a la cantidad de electrones libres que se encuentran presentes en la banda de conducción. En un semiconductor intrínseco también hay flujos de electrones y huecos, aunque la corriente total resultante sea cero. Esto se debe a que por acción de la energía térmica se producen los electrones libres y los huecos por pares, por lo tanto hay tantos electrones libres como huecos con lo que la corriente total es cero. La tensión aplicada en la figura forzará a los electrones libres a circular hacia la derecha (del terminal negativo de la pila al positivo) y a los huecos hacia la izquierda. Cuando los electrones libres llegan la extremo derecho del cristal, entran al conductor externo (normalmente un hilo de cobre) y circulan hacia el terminal positivo de la batería. Por otro lado, los electrones libres en el terminal negativo de la batería fluirían hacia los extremos izquierdos del cristal. Así entran en el cristal y se recombinan con los huecos que llegan al extremo izquierdo del cristal. Se produce un flujo estable de electrones libres y huecos dentro del semiconductor. 1.2 Conductores Extrínsecos: Cuando a la estructura molecular cristalina del silicio o del germanio se le introduce cierta alteración, esos elementos semiconductores permiten el paso de la corriente eléctrica por su cuerpo en una sola dirección. Para hacer posible, la estructura molecular del semiconductor se dopa mezclando los átomos de silicio o de germanio con pequeñas cantidades de átomos de otros elementos o "impurezas". Generalmente los átomos de las “impurezas” corresponden también a elementos semiconductores que, en lugar de cuatro, poseen tres electrones en su última órbita [como el galio (Ga) o el indio (In)], o que poseen cinco electrones también en su última órbita [como el antimonio (Sb) o el arsénico (As)]. Una vez dopados, el silicio o el germanio se convierten en semiconductores “extrínsecos” y serán capaces de conducir la corriente eléctrica. 1.2.1 Semiconductor tipo N Un Semiconductor tipo N se obtiene llevando a cabo un proceso de dopado añadiendo un cierto tipo de átomos al semiconductor para poder aumentar el número de portadores de carga libres (en este caso negativos o electrones). Cuando se añade el material dopante, aporta sus electrones más débilmente vinculados a los átomos del semiconductor. Este tipo de agente dopante es también conocido como material donante, ya que da algunos de sus electrones. El propósito del dopaje tipo n es el de producir abundancia de electrones portadores en el material Si los átomos añadidos tienen cinco electrones en su última capa el semiconductor se denomina de tipo N, por ser potencialmente más negativo que uno sin dopar. En este tipo de materiales tenemos un quinto electrón que no se recombina con los demás y que, por tanto, está libre y vaga por el elemento produciendo corriente. Para hacerse una idea de las cantidades que entran en juego en esto del dopaje se podría decir que se introduce un átomo extraño por cada doscientos millones de átomos del semiconductor. 1.2.2 Semiconductor Tipo P Un Semiconductor tipo P se obtiene llevando a cabo un proceso de dopado, añadiendo un cierto tipo de átomos al semiconductor para poder aumentar el número de portadores de carga libres (en este caso positivos o huecos). Cuando se añade el material dopante libera los electrones más débilmente vinculados de los átomos del semiconductor. Este agente dopante es también conocido como material aceptor y los átomos del semiconductor que han perdido un electrón son conocidos como huecos El propósito del dopaje tipo P es el de crear abundancia de huecos. Cuando al dopar introducimos átomos con tres electrones de valencia en un elemento de átomos con cuatro estamos formando un semiconductor tipo P, viniendo su nombre del exceso de carga aparentemente positiva (porque los átomos siguen siendo neutros, debido a que tienen igual número de electrones que de protones) que tienen estos elementos. Estos átomos "extraños" que hemos añadido se recombinan con el resto pero nos queda un hueco libre que produce atracción sobre los electrones que circulan por nuestro elemento. También se produce una circulación de estos huecos colaborando en la corriente. Tipo de Semiconductores y su complejidad A- Diodo Un diodo es un componente electrónico de dos terminales que permite la circulación de la corriente eléctrica a través de él en un solo sentido Es el dispositivo semiconductor más sencillo y se puede encontrar prácticamente en cualquier circuito electrónico. Los diodos se fabrican en versiones de silicio (la más utilizada) y de germanio. Esta barrera o unión es de 0.3 voltios en el germanio y de 0.6 voltios aproximadamente en el diodo de silicio. Los primeros diodos eran válvulas o tubos de vacío, también llamados válvulas termoiónicas constituidos por dos electrodos rodeados de vacío en un tubo de cristal, con un aspecto similar al de las lámparas incandescentes. 1 Historia Diodo de vacío, usado comúnmente hasta la invención del diodo semiconductor, este último también llamado diodo sólido. Aunque el diodo semiconductor de estado sólido se popularizó antes del diodo termoiónico, ambos se desarrollaron al mismo tiempo. En 1873 Frederick Guthrie descubrió el principio de operación de los diodos térmicos. Guhtrie descubrió que un electroscopio cargado positivamente podría descargarse al acercarse una pieza de metal caliente, sin necesidad de que éste lo tocara. No sucedía lo mismo con un electroscopio cargado negativamente, reflejando esto que el flujo de corriente era posible solamente en una dirección. Fleming patentó el primer diodo termoiónico en Gran Bretaña el 16 de noviembre de 1904. En 1874 el científico alemán Karl Ferdinand Braun descubrió la naturaleza de conducir por una sola dirección de los cristales semiconductores. Braun patentó el rectificador de cristal en 1899. Los principios del diodo termoiónico fueron vueltos a descubrir por Thomas Edison de febrero el 13 1880 y de él tomó hacia fuera una patente en 1883, pero desarrolló la idea no más lejos. A la hora de su invención tales dispositivos eran conocidos como rectificadores. Los rectificadores de óxido de cobre y selenio fueron desarrollados para aplicaciones de alta potencia en la década de los 1930.En el Henrio 1919 de Guillermo Eccles acuñó el diodo del término de las raíces griegas; el di significa "dos ", y la oda (de odos) signifícala " trayectoria". 2 Diodos Termoiónicos y de estado gaseoso Los diodos termoiónicos son los dispositivos del tubo de vacío (también conocidos como válvulas termoiónicas), que son arreglos de los electrodos rodeados por un vacío dentro de un sobre de cristal, similares en aspecto a las bombillas incandescentes. En los diodos del tubo de vacío, una corriente se pasa a través del cátodo, de un filamento tratado con una mezcla del bario y de los óxidos del estroncio, que son óxidos de los metales de la tierra alcalina. La corriente calienta el filamento, causando la emisión termoiónica de electrones en el sobre del vacío. En la operación delantera, un electrodo circundante del metal, llamó el ánodo, se carga positivamente, de modo que atraiga electrostático los electrones emitidos. Sin embargo, los electrones no se lanzan fácilmente de la superficie sin calentar del ánodo cuando se invierte la polaridad del voltaje y por lo tanto cualquier corriente contraria es una corriente muy minúscula. Para mucho del vigésimo tubo de vacío del siglo los diodos fueron utilizados en usos de la señal análoga, y como rectificadores en fuentes de alimentación. Hoy, los diodos del tubo se utilizan solamente en usos del lugar, tales como rectificadores en guitarra del tubo y los amplificadores de alta fidelidad, y el equipo de alto voltaje especializado. En la mayoría del siglo 20 los diodos de válvula termoiónica se usaron en aplicaciones de señales análogas, rectificadores y potencia. Hasta el día de hoy, los diodos de válvula solamente se usan en aplicaciones exclusivas como rectificadores en guitarras eléctricas, amplificadores de audio, así como equipo especializado de alta tensión. 3 Diodo Semiconductor Un diodo semiconductor moderno está hecho de cristal semiconductor como el silicio con impurezas en él para crear una región que contiene portadores de carga negativa (electrones), llamado semiconductor de tipo n, y una región en el otro lado que contiene portadores de carga positiva (huecos), llamado semiconductor tipo p La mayoría de los diodos modernos se basan en ensambladuras del p-n del semiconductor. En un diodo del p-n, la corriente convencional puede fluir del p-tipo lado (el ánodo) al n-tipo lado (el cátodo), pero no en la dirección opuesta. Otro tipo de diodo del semiconductor, el diodo de Schottky, se forma del contacto entre un metal y un semiconductor más bien que por una ensambladura del p-n. Las terminales del diodo se unen a cada región. El límite dentro del cristal de estas dos regiones, llamado una unión PN, es donde la importancia del diodo toma su lugar. El cristal conduce una corriente de electrones del lado n (llamado cátodo), pero no en la dirección opuesta; es decir, cuando una corriente convencional fluye del ánodo al cátodo (opuesto al flujo de los electrones). Al unir ambos cristales, se manifiesta una difusión de electrones del cristal n al p. Al establecerse una corriente de difusión, aparecen cargas fijas en una zona a ambos lados de la unión, zona que recibe el nombre de región de agotamiento. A medida que progresa el proceso de difusión, la región de agotamiento va incrementando su anchura profundizando en los cristales a ambos lados de la unión. Sin embargo, la acumulación de iones positivos en la zona n y de iones negativos en la zona p, crea un campo eléctrico (E) que actuará sobre los electrones libres de la zona n con una determinada fuerza de desplazamiento, que se opondrá a la corriente de electrones y terminará deteniéndolos. Este campo eléctrico es equivalente a decir que aparece una diferencia de tensión entre las zonas p y n. Esta diferencia de potencial (VD) es de 0,7 V en el caso del silicio y 0,3 V para los cristales de germanio. 3.1 Polarización Directa de un Diodo Cuando polarizamos un diodo de forma directa, el polo positivo de la batería rechaza los huecos o agujeros contenidos en la región "P" (ánodo del diodo), y los obliga a dirigirse al empalme "p-n". En esas condiciones, la “zona de depleción” se reduce por completo, por lo que los electrones en exceso en el material negativo o cátodo adquieren la suficiente energía como para poder atravesar la barrera de potencial existente en el empalme "p-n". De esa forma los electrones penetran en la región "P" de la parte positiva del diodo para combinarse ahí con los huecos o agujeros. Al mismo tiempo la atracción que ejerce el polo positivo de la batería sobre los electrones (negativos) provoca que estos salten o se desplacen de hueco en hueco a través de esa mitad del diodo y recorran toda la región semiconductora "P". Así, los electrones que cede la batería o fuente de energía eléctrica a partir de su polo negativo (–), retornan a su polo positivo (+) después de atravesar el diodo. De esa manera se restablece el equilibrio electrónico interno de la propia batería, el cual se ve continuamente alterado durante todo el tiempo que se encuentre conectada al circuito cediendo electrones a la región “N” del diodo. En resumen, el movimiento de los electrones desplazándose desde la parte negativa del diodo para recombinarse con los huecos en la parte positiva después de atravesar el empalme "p-n" o barrera de potencial, permite que la corriente electrónica fluya a través del mismo, siempre y cuando se encuentre polarizado directamente. Si bajo esas condiciones conectamos un miliamperímetro y un consumidor al circuito del diodo, se podrá apreciar que el instrumento de medición registra la circulación de corriente eléctrica. Polarización Inversa de un Diodo En polarización inversa es más difícil la conducción, porque el electrón libre tiene que subir una barrera de potencial muy grande de n a p al ser mayor el valor de W. Entonces no hay conducción de electrones libres o huecos, no hay corriente. En esta situación tenemos que tener en cuenta la generación térmica de pares electrón-hueco. Los pocos electrones generados térmicamente pierden energía y bajan de p a n, es la "Corriente Inversa de Saturación" (IS) que es muy pequeña. Esa corriente tiene un sentido, siempre se toma la corriente de p a n. Entonces sería negativa en este caso. Además de esta corriente tenemos otra corriente debida a las fugas, que se denomina "Corriente de Fugas". En este caso, el polo negativo de la batería se conecta a la zona p y el polo positivo a la zona n, lo que hace aumentar la zona de carga espacial, y la tensión en dicha zona hasta que se alcanza el valor de la tensión de la batería El polo positivo de la batería atrae a los electrones libres de la zona n, los cuales salen del cristal n y se introducen en el conductor dentro del cual se desplazan hasta llegar a la batería. A medida que los electrones libres abandonan la zona n, los átomos pentavalentes que antes eran neutros, al verse desprendidos de su electrón en el orbital de conducción, adquieren estabilidad (8 electrones en la capa de valencia, ver semiconductor y átomo) y una carga eléctrica neta de +1, con lo que se convierten en iones positivos. El polo negativo de la batería cede electrones libres a los átomos trivalentes de la zona p. Recordemos que estos átomos sólo tienen 3 electrones de valencia, con lo que una vez que han formado los enlaces covalentes con los átomos de silicio, tienen solamente 7 electrones de valencia, siendo el electrón que falta el denominado hueco. El caso es que cuando los electrones libres cedidos por la batería entran en la zona p, caen dentro de estos huecos con lo que los átomos trivalentes adquieren estabilidad (8 electrones en su orbital de valencia) y una carga eléctrica neta de -1, convirtiéndose así en iones negativos. Este proceso se repite una y otra vez hasta que la zona de carga espacial adquiere el mismo potencial eléctrico que la batería. En esta situación, el diodo no debería conducir la corriente; sin embargo, debido al efecto de la temperatura se formarán pares electrón-hueco (ver semiconductor) a ambos lados de la unión produciendo una pequeña corriente (del orden de 1 μA) denominada corriente inversa de saturación. Además, existe también una denominada corriente superficial de fugas la cual, como su propio nombre indica, conduce una pequeña corriente por la superficie del diodo; ya que en la superficie, los átomos de silicio no están rodeados de suficientes átomos para realizar los cuatro enlaces covalentes necesarios para obtener estabilidad. Esto hace que los átomos de la superficie del diodo, tanto de la zona n como de la p, tengan huecos en su orbital de valencia con lo que los electrones circulan sin dificultad a través de ellos. No obstante, al igual que la corriente inversa de saturación, la corriente superficial de fuga es despreciable. - 3.3 Curva característica del Diodo Tensión umbral, de codo o de partida (Vγ). La tensión umbral (también llamada barrera de potencial) de polarización directa coincide en valor con la tensión de la zona de carga espacial del diodo no polarizado. Al polarizar directamente el diodo, la barrera de potencial inicial se va reduciendo, incrementando la corriente ligeramente, alrededor del 1% de la nominal. Sin embargo, cuando la tensión externa supera la tensión umbral, la barrera de potencial desaparece, de forma que para pequeños incrementos de tensión se producen grandes variaciones de la intensidad de corriente. - Corriente máxima (Imax). Es la intensidad de corriente máxima que puede conducir el diodo sin fundirse por el efecto Joule. Dado que es función de la cantidad de calor que puede disipar el diodo, depende sobre todo del diseño del mismo. - Corriente inversa de saturación (Is). Es la pequeña corriente que se establece al polarizar inversamente el diodo por la formación de pares electrón-hueco debido a la temperatura, admitiéndose que se duplica por cada incremento de 10 °C en la temperatura. - Corriente superficial de fugas. Es la pequeña corriente que circula por la superficie del diodo (ver polarización inversa), esta corriente es función de la tensión aplicada al diodo, con lo que al aumentar la tensión, aumenta la corriente superficial de fugas. - Tensión de ruptura (Vr). Es la tensión inversa máxima que el diodo puede soportar antes de darse el efecto avalancha. La ruptura puede deberse a dos efectos: Efecto diodo inverso (diodos poco dopados). En polarización inversa se generan pares electrón-hueco que provocan la corriente inversa de saturación; si la tensión inversa es elevada los electrones se aceleran e incrementan su energía cinética, de forma que al chocar con electrones de valencia pueden provocar que salten a la banda de conducción. Estos electrones liberados, a su vez, se aceleran por efecto de la tensión, chocan con más electrones de valencia y los liberan también. El resultado es una avalancha de electrones que provoca una corriente grande. Este fenómeno se produce para valores de la tensión superiores a 6 V. Efecto Zener (diodos muy dopados). Cuanto más dopado está el material, menor es la anchura de la zona de carga. Puesto que el campo eléctrico E puede expresarse como cociente de la tensión V entre la distancia d; cuando el diodo esté muy dopado, y por tanto d sea pequeño, el campo eléctrico será grande, del orden de 3·105 V/cm. En estas condiciones, el propio campo puede ser capaz de arrancar electrones de valencia y aumentar la corriente. Este efecto se produce para tensiones de 4 V o menores. 3.4 Modelos Matemáticos El modelo matemático más empleado es el de Shockley (en honor de William Bradford Shockley), que permite estimar el comportamiento del diodo en la mayoría de las aplicaciones. La ecuación que liga la intensidad de corriente eléctrica y la diferencia de potencial es: Dónde: I es la intensidad de la corriente que atraviesa el diodo y VD la diferencia de tensión entre sus extremos. IS es la corriente de saturación. q es la carga del electrón. T es la temperatura absoluta de la unión. k es la constante de Boltzmann. n es el coeficiente de emisión, que depende del proceso de fabricación del diodo y suele adoptar valores entre 1 (para el germanio) y aproximadamente 2 (para el silicio). El término es la tensión debida a la temperatura, del orden de 26 mV a temperatura ambiente (300 K o 27 °C). Con objeto de evitar el uso de exponenciales (a pesar de ser uno de los modelos más sencillos), en ocasiones se emplean modelos más simples aún, que modelizan las zonas de funcionamiento del diodo mediante tramos rectos; son los llamados modelos de continua o de Ram-señal El más simple de todos es el diodo ideal 4 Tipo de Diodo Semiconductor Existen varios tipos de diodos, que pueden diferir en su aspecto físico, impurezas, uso de electrodos, que tienen características eléctricas particulares usados para una aplicación especial en un circuito. El funcionamiento de estos diodos es fundamentado por principios de la mecánica cuántica y teoría de bandas. - Diodo Zener Un diodo Zener, es un diodo semiconductor diseñado especialmente para trabajar en inversa. En estos diodos, muy dopados, cuando la tensión en polarización inversa alcanza el valor de la tensión de ruptura (o zener), el propio campo eléctrico de la unión pn es capaz de arrancar electrones de la banda de valencia permitiendo la conducción sin apenas variación de la tensión. De este modo la tensión del diodo, que sufrirá tan solo pequeñas variaciones con el incremento de la corriente eléctrica debido a la resistencia interna (del orden de una décima de voltio) puede emplearse como tensión de referencia, típicamente en circuitos estabilizadores o reguladores de tensión. - Diodo de Avalancha: Un diodo avalancha, es un diodo semiconductor diseñado especialmente para trabajar en inversa. En estos diodos, poco dopados, cuando la tensión en polarización inversa alcanza el valor de la tensión de ruptura, los electrones que han saltado a la banda de conducción por efecto de la temperatura se aceleran debido al campo eléctrico incrementando su energía cinética, de forma que al colisionar con electrones de valencia los liberan; éstos a su vez, se aceleran y colisionan con otros electrones de valencia liberándolos también, produciéndose una avalancha de electrones cuyo efecto es incrementar la corriente conducida por el diodo sin apenas incremento de la tensión. La aplicación típica de estos diodos es la protección de circuitos electrónicos contra sobretensiones. El diodo se conecta en inversa a tierra, de modo que mientras la tensión se mantenga por debajo de la tensión de ruptura sólo será atravesado por la corriente inversa de saturación, muy pequeña, por lo que la interferencia con el resto del circuito será mínima; a efectos prácticos, es como si el diodo no existiera. Al incrementarse la tensión del circuito por encima del valor de ruptura, el diodo comienza a conducir desviando el exceso de corriente a tierra evitando daños en los componentes del circuito. - LED Un diodo LED, acrónimo inglés de Light Emitting Diode (diodo emisor de luz), es un dispositivo semiconductor que emite luz monocromática cuando se polariza en directa y es atravesado por la corriente eléctrica. El color depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por todo el espectro de luz visible, hasta el infrarrojo, éstos últimos reciben la denominación de diodos IRED (Infra-Red Emitting Diode). El dispositivo semiconductor está comúnmente encapsulado en una cubierta de plástico de mayor resistencia que las de cristal que usualmente se emplean en las bombillas. Aunque el plástico puede estar coloreado es sólo por razones estéticas ya que ello no influye en el color de la luz emitida. Usualmente la cubierta tiene una cara plana que indica el cátodo que además es más corto que el ánodo (ver foto). Al contrario que las lámparas incandescentes que pueden alimentarse con corriente alterna o continua, el diodo LED funciona de forma continua sólo con ésta última ya que únicamente conduce la electricidad cuando se polariza en directa al igual que los diodos pn convencionales, de modo que si se alimenta con corriente alterna el diodo parpadeará al iluminarse tan sólo la mitad del ciclo - Diodo Varicap - Fotodiodo El fotodiodo es un dispositivo de unión pn que opera con polarización en inversa. El fotodiodo tiene una pequeña ventana transparente que permite que la luz incida en la unión pn, o sea que sólo funciona en presencia de la luz. Cuando está polarizado en inversa, un diodo rectificador tiene una corriente de fuga inversa muy pequeña. Lo mismo es cierto para el fotodiodo; un fotodiodo difiere de un diodo rectificador en que la corriente en inversa crece con intensidad luminosa en la unión pn. Cuando no hay luz incidente, la corriente en inversa es casi despreciable y se denomina corriente obscura. - Diodo Schottky El diodo Schottky es un dispositivo semiconductor constituido por una unión metal-semiconductor (barrera Schottky) que proporciona conmutaciones muy rápidas y bajas tensiones umbral. La alta velocidad de conmutación permite rectificar señales de hasta 300MHz y eliminar excesos de corriente en circuitos de alta intensidad. A diferencia de los diodos convencionales de silicio que tienen una tensión umbral —valor de la tensión en directa a partir de la cual el diodo conduce— de 0,6 V, los diodos Schottky tienen una tensión umbral de aproximadamente 0,2 V, empleándose, por ejemplo, como protección de descarga de células solares con baterías de plomo ácido. - Diodo Túnel Los diodos de efecto túnel. Son dispositivos muy versátiles que pueden operar como detectores, amplificadores y osciladores. Poseen una región de juntura extremadamente delgada que permite a los portadores cruzar con muy bajos voltajes de polarización directa y tienen una resistencia negativa, esto es, la corriente disminuye a medida que aumenta el voltaje aplicado. - Diodo Láser Un diodo láser es dispositivo semiconductor similar a los LED pero que bajo las condiciones adecuadas emite luz láser. A veces se los denomina diodos láser de inyección, o por sus siglas inglesas LD o ILD. En los diodos láser, el cristal semiconductor tiene la forma de una lámina delgada lográndose así una unión p-n de grandes dimensiones, con las caras exteriores perfectamente paralelas. Los fotones emitidos en la dirección adecuada se reflejarán repetidamente en dichas caras estimulando a su vez la emisión de más fotones, hasta que el diodo comienza a emitir luz láser. - Diodo de Silicio Suelen tener un tamaño milimétrico y, alineados, constituyen detectores multicanal que permiten obtener espectros en milisegundos. Son menos sensibles que los fotomultiplicadores. Es un semiconductor de tipo p (con huecos) en contacto con un semiconductor de tipo n (electrones). La radiación comunica la energía para liberar los electrones que se desplazan hacia los huecos, estableciendo una corriente eléctrica proporcional a la potencia radiante. - 5 Aplicaciones del Diodo Rectificador de media onda: Circuito empleado para eliminar la parte negativa de una señal de corriente alterna de entrada (Vi) convirtiéndola en corriente continua de salida (Vo). Es el circuito más sencillo que puede construirse con un diodo. - Rectificador de media onda completa: Circuito electrónico empleado para convertir una señal de corriente alterna de entrada (Vi) en corriente continua de salida (Vo). A diferencia del rectificado de media onda ya que este genera una señal de corriente pulsante y en este caso, la parte negativa de la señal se convierte en positiva. Existen dos alternativas, bien empleando dos diodos o empleando cuatro (puente de diodos). - Filtro de condesado: Son circuitos eléctrico con diodos empleados para filtrar una señal eléctrica, es decir, transformar la corriente alterna en corriente continua. El circuito es el mismo que el empleado en la rectificación añadiendo un condensador, por lo que al igual que existen rectificadores de media onda y de onda completa, existen filtros de condensador de media y onda completa. - Estabilizador Zener: Los diodos Zener mantienen la tensión en inversa prácticamente constante en un amplio rango de intensidades, por ello, este tipo de diodos se emplean en circuitos estabilizadores o reguladores de la tensión tal - Circuito Recortador: Los dos dispositivos básicos para construir un circuito recortador son diodos y resistencias, ya sea utilizando diodos Zener junto con un Amplificador Operacional o de lo contrario un par de resistencias colocadas en paralelo a un simple diodo rectificador. - Multiplicador - Circuito Fijador - Integrador y diferenciador de Rc B. Transistor El transistor es un dispositivo electrónico semiconductor utilizado para producir una señal de salida en respuesta a otra señal de entrada. Cumple funciones de amplificador, oscilador, conmutador o rectificador. Actualmente se encuentran prácticamente en todos los aparatos electrónicos de uso diario: radios, televisores, reproductores de audio y video, relojes de cuarzo, computadoras, lámparas fluorescentes, tomógrafos, teléfonos celulares, etc. 1 Historia El transistor es un dispositivo que cuenta con tres terminales. La construcción de los primeros transistores respondía a una necesidad técnica: hacer llamadas telefónicas a larga distancia. Es por esto que los descubridores de esta nueva tecnología trabajaban para la American Telephone and Telegraph Corporation (AT&T), fundada por Alexander Graham Bell y conocida inicialmente como la Bell Telephone Company. Lo que se buscaba generar era un conmutador en estado sólido que pueda utilizarse en telefonía y así reemplazar tanto a los sistemas de barras como a los relés. Luego se contempló la posibilidad de obtener el reemplazo por medio de la válvula de vacío. Después de finalizada la Segunda Guerra Mundial el director del Bell Labs Mervin Kelly buscó un grupo de científicos que dieran con la solución a los problemas que causaba el tubo de vacío y tenía algo en mente para reemplazarlo: los semiconductores. El director del nuevo equipo de investigadores fue William Shockley, un visionario capaz de ver la importancia de los transistores antes que nadie, Walter Brattain, un físico experimental capaz de construir y reparar prácticamente cualquier cosa y John Bardeen, capaz de ir más allá en la comprensión de los fenómenos aparentemente complejos y exponerlos de la manera más sencilla posible. En 1947, durante el conocido como "Mes milagroso" entre el 17 de noviembre y el 23 de diciembre realizaron infinidad de pruebas para mejorar el dispositivo hasta llegar a conseguir su objetivo: el primer transistor de contacto puntual, hecho con dos púas de metal (oro) que se presionan sobre la superficie de material semiconductor (germanio) en posiciones muy próximas entre sí. William Shockley, Walter Brattain y John Bardeen fueron galardonados con el Premio Nobel de Física en 1956. El impacto de los transistores fue enorme, transformaron el mundo de la electrónica y el diseño de computadoras al permitir disminuir infinitamente su tamaño al librarse de los voluminosos y frágiles triodos de vacío. Y así comenzaron a disminuir las tallas de nuestros dispositivos electrónicos. Hasta hoy día, en el que empieza a ser común un móvil con el tamaño de un reloj. 1 Tipos de transistor Existen varios tipos que dependen de su proceso de construcción y de las aplicaciones a las que se destinan. 1.1Transistor de contacto puntual Llamado también «transistor de punta de contacto», fue el primer transistor capaz de obtener ganancia, inventado en 1947 por John Bardeen y Walter Brattain. Consta de una base de germanio, semiconductor para entonces mejor conocido que la combinación cobre-óxido de cobre, sobre la que se apoyan, muy juntas, dos puntas metálicas que constituyen el emisor y el colector. La corriente de base es capaz de modular la resistencia que se «ve» en el colector, de ahí el nombre de transfer resistor. Se basa en efectos de superficie, poco conocidos en su día. Es difícil de fabricar (las puntas se ajustaban a mano), frágil (un golpe podía desplazar las puntas) y ruidoso. Sin embargo convivió con el transistor de unión (W. Shockley, 1948) debido a su mayor ancho de banda. En la actualidad ha desaparecido. 1.2 Transistor de unión bipolar El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o sus siglas BJT) GART es un dispositivo electrónico de estado sólido consistente en dos uniones PN muy cercanas entre sí, que permite controlar el paso de la corriente a través de sus terminales. La denominación de bipolar se debe a que la conducción tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos), y son de gran utilidad en gran número de aplicaciones; pero tienen ciertos inconvenientes, entre ellos su impedancia de entrada bastante baja. Los transistores bipolares son los transistores más conocidos y se usan generalmente en electrónica analógica aunque también en algunas aplicaciones de electrónica digital, como la tecnología TTL o BICMOS. El transistor de unión bipolar, se fabrica básicamente sobre un monocristal de Germanio, Silicio o Arseniuro de galio, que tienen cualidades de semiconductores, estado intermedio entre conductores como los metales y los aislantes como el diamante. Sobre el sustrato de cristal, se contaminan en forma muy controlada tres zonas, dos de las cuales son del mismo tipo, NPN o PNP, quedando formadas dos uniones NP. La zona N con elementos donantes de electrones (cargas negativas) y la zona P de aceptadores o «huecos» (cargas positivas). Normalmente se utilizan como elementos aceptadores P al Indio (In), Aluminio (Al) o Galio (Ga) y donantes N al Arsénico (As) o Fósforo (P). La configuración de uniones PN, dan como resultado transistores PNP o NPN, donde la letra intermedia siempre corresponde a la característica de la base, y las otras dos al emisor y al colector que, si bien son del mismo tipo y de signo contrario a la base, tienen diferente contaminación entre ellas (por lo general, el emisor está mucho más contaminado que el colector). El mecanismo que representa el comportamiento semiconductor dependerá de dichas contaminaciones, de la geometría asociada y del tipo de tecnología de contaminación (difusión gaseosa, epitaxial, etc.) y del comportamiento cuántico de la unión. 1.3 Transistor de efecto de campo El transistor de efecto de campo de unión (Field-Effect Transistor o FET, en inglés), fue el primer transistor de efecto de campo en la práctica. Lo forma una barra de material semiconductor de silicio de tipo N o P. En los terminales de la barra se establece un contacto óhmico, tenemos así un transistor de efecto de campo tipo N de la forma más básica. Si se difunden dos regiones P en una barra de material N y se conectan externamente entre sí, se producirá una puerta. A uno de estos contactos le llamaremos surtidor y al otro drenador. Aplicando tensión positiva entre el drenador y el surtidor y conectando la puerta al surtidor, estableceremos una corriente, a la que llamaremos corriente de drenador con polarización cero. Con un potencial negativo de puerta al que llamamos tensión de estrangulamiento, cesa la conducción en el canal. Se empezaron a construir en la década de los 60. Existen tres tipos de transistores de efecto de campo los JFET (transistor de efecto de campo de unión) construido mediante una unión PN, transistor de efecto de campo de compuerta aislada (IGFET) en el que la compuerta se aísla del canal mediante un dieléctrico y los MOSFET. Los transistores MOS respecto de los bipolares ocupan menos espacio por lo que su aplicación más frecuente la encontramos en los circuitos integrados. Es un componente de tres terminales que se denominan: Puerta (G, Gate), Fuente (S, Source), y Drenaje (D, Drain). Según su construcción pueden ser de canal P o de canal N. 1.4 Fototransistor Los fototransistores son sensibles a la radiación electromagnética en frecuencias cercanas a la de la luz visible; debido a esto su flujo de corriente puede ser regulado por medio de la luz incidente. La luz incide sobre la región de base, generando portadores en ella. Esta carga de base lleva el transistor al estado de conducción. El fototransistor es más sensible que el fotodiodo por el efecto de ganancia propio del transistor. Un fototransistor es igual a un transistor común, con la diferencia que el primero puede trabajar de 2 formas: 1. Como transistor normal con la corriente de base Ib (modo común). 2. Como fototransistor, cuando la luz que incide en este elemento hace las veces de corriente de base. Ip (modo de iluminación). Puede utilizarse de las dos en formas simultáneamente, aunque el fototransistor se utiliza principalmente con el pin de la base sin conectar. El circuito equivalente de un fototransistor, es un transistor común con un fotodiodo conectado entre la base y el colector, con el cátodo del fotodiodo conectado al colector del transistor y el ánodo a la base. El fototransistor es muy utilizado para aplicaciones donde la detección de iluminación es muy importante. 3 Transistores y electrónica de potencia Con el desarrollo tecnológico y evolución de la electrónica, la capacidad de los dispositivos semiconductores para soportar cada vez mayores niveles de tensión y corriente ha permitido su uso en aplicaciones de potencia. Es así como actualmente los transistores son empleados en conversores estáticos de potencia, controles para motores y llaves de alta potencia (principalmente inversores), aunque su principal uso está basado en la amplificación de corriente dentro de un circuito cerrado. 4 El transistor bipolar como amplificador La necesidad de amplificar las señales es casi una necesidad constante en la mayoría de los sistemas electrónicos. En este proceso, los transistores desarrollan un papel fundamental, pues bajo ciertas condiciones, pueden entregar a una determinada carga una potencia de señal mayor de la que absorben. El análisis de un amplificador mediante su asimilación a un cuadrípolo (red de dos puertas), resulta interesante ya que permite caracterizarlo mediante una serie de parámetros relativamente simples que nos proporcionan información sobre su comportamiento. En los amplificadores, gracias a los transistores se consigue la intensidad de los sonidos y de las señales en general. El amplificador posee una entrada por donde se introduce la señal débil y otra por donde se alimenta con C.C. La señal de salida se ve aumentada gracias a la aportación de esta alimentación, siguiendo las mismas variaciones de onda que la de entrada. La señal de entrada, de bajo nivel, del orden de unos pocos milivotios, la aportan dispositivos como el micrófono (transforman ondas sonoras en señales eléctricas que siguen las mismas variaciones que las primeras), sensores térmicos, luminosos, etc. Cuando un amplificador realiza la función de elevar la señal que ha sido aplicada a su entrada, se dice que ha producido una determinada ganancia. Se puede decir que la ganancia de un amplificador es la relación que existe entre el valor de la señal obtenida a la salida y el de la entrada. Dependiendo de la magnitud eléctrica que estemos tratando, se pueden observar tres tipos de ganancia: ganancia en tensión, ganancia en corriente y ganancia en potencia. En cuanto a la frecuencia, los amplificadores dependen de esta, de forma que lo que es válido para un margen de frecuencias no tiene porqué serlo necesariamente para otro. De todas formas, en todo amplificador existe un margen de frecuencias en el que la ganancia permanece prácticamente constante (banda de paso del amplificador). El margen dinámico de un amplificador es la mayor variación simétrica de la señal que es capaz de presentar sin distorsión a la salida; normalmente expresado en voltios de pico (Vp) o Voltios pico-pico (Vpp). 4.1 Emisor común La señal se aplica a la base del transistor y se extrae por el colector. El emisor se conecta a las masas tanto de la señal de entrada como a la de salida. En esta configuración se tiene ganancia tanto de tensión como de corriente. La configuración de emisor común es la más usada. En él, el transistor actúa como un amplificador de la corriente y de la tensión. Aparte de los efectos de amplificación, también invierte la tensión de señal, es decir, si la tensión es tendente a positiva en la base pasa a ser tendente a negativa en el colector; pero, como estos efectos se producen con la corriente alterna. Para estudiar las propiedades de este tipo de configuración vamos a basarnos en un transistor tipo P-N-P. Tenemos la unión base-emisor, JE, polarizada directamente y la unión emisor-colector, JC, inversamente polarizada. Aplicamos una tensión a la base y otra al colector y tenemos dos resistencias, RB conectada a la base y RC conectada al colector. El valor de la corriente de base va a depender del valor de la resistencia RB, la corriente que circula por el colector, IC, depende de la corriente de base, IB, como hemos visto con la formula IC = b. IB; IC es mucho más grande que IB y ese aumento viene dado por b, que es un parámetro característico del transistor. Al pasar la corriente por RC se va a producir una caída de potencial; luego, la tensión que obtengamos a la salida, también va a depender del valor de esta resistencia. Podemos colocar una resistencia en el emisor, que llamaremos RE, que va a perjudicar mucho la amplificación de tensión, pero va a hacer que el transistor sea mucho más estable y no le afecten los cambios de la temperatura. Aumentando o disminuyendo los valores de las tres resistencias podemos conseguir corrientes y tensiones diferentes en los tres terminales. Por ejemplo, si aumentamos la resistencia de base el valor de la corriente IB será menor, lo que implicará que IC también sea menor, y al pasar una corriente de colector menor a través de RC, el potencial que se obtendrá a la salida será mayor; pero si disminuimos RB aumenta IB y con ella la corriente de colector, y la tensión de colector disminuirá. Disminuyendo mucho la resistencia de base podemos llegar a un punto en el que pasemos de la zona de activa a la de saturación, es decir, que la unión colectorbase, que está inversamente polarizada en activa, pase a estar directamente polarizada y, por lo tanto, en saturación. Esto se produce porque IB aumenta y, en consecuencia, IC también aumenta. Si un circuito está trabajando en zona activa, el transistor se comporta de forma lineal. Es decir, que a iguales variaciones de la corriente de base, IB, se producen iguales variaciones de la corriente de colector, IC. El primer punto en el cual al aumentar IB ya no aumenta IC pertenece a la zona de saturación. También podemos modificar los valores de la corriente de base, de colector y de la tensión de salida jugando con la tensión de entrada o con la resistencia de colector. Una característica muy importante dentro de un circuito es determinar su punto de funcionamiento. La corriente continua, y la tensión en cada terminal del transistor determinan el punto de funcionamiento de un circuito. Este punto de funcionamiento se encuentra situado en la recta de carga. Para saber cuál es el punto de funcionamiento de un transistor tenemos que determinar el valor de VC, potencial de colector, VB potencial de base, e IC corriente de colector cuando el potencial trabaja en zona activa. Para determinarlas podemos usar las curvas características que representan a un transistor, o también podemos hallar el punto matemáticamente, usando dos fórmulas que ya conocemos, la ley de Omh V = I. R y la igualdad IC = b. IB. Combinando correctamente ambas fórmulas hallaríamos los datos que necesitamos para obtener el punto de funcionamiento. 4.2 Base común La señal se aplica al emisor del transistor y se extrae por el colector. La base se conecta a las masas tanto de la señal de entrada como a la de salida. En esta configuración se tiene ganancia sólo de tensión. La impedancia de entrada es baja y la ganancia de corriente algo menor que uno, debido a que parte de la corriente de emisor sale por la base. Si añadimos una resistencia de emisor, que puede ser la propia impedancia de salida de la fuente de señal, un análisis similar al realizado en el caso de emisor común, nos da la ganancia aproximada siguiente: La base común se suele utilizar para adaptar fuentes de señal de baja impedancia de salida como, por ejemplo, micrófonos dinámicos. 4.3 Colector común Otro tipo de configuración básica de un transistor es la de colector común. A esta configuración se la suele llamar seguidor de emisor. Con este tipo de circuitos no vamos a conseguir una amplificación de tensión, pero son muy buenos amplificadores de la corriente y de ahí viene su utilidad. La señal se aplica a la base del transistor y se extrae por el emisor. El colector se conecta a las masas tanto de la señal de entrada como a la de salida. En esta configuración se tiene ganancia de corriente, pero no de tensión que es ligeramente inferior a la unidad. La impedancia de entrada es alta, aproximadamente β+1 veces la impedancia de carga. Además, la impedancia de salida es baja, aproximadamente β veces menor que la de la fuente de señal. Este circuito también se llama seguidor de emisor, nombre que le viene porque el emisor sigue a la base, lo que quiere decir que la tensión que le apliquemos a la base va a ser reproducida por el emisor. Por ejemplo, si la base se encuentra a cero voltios, el emisor también estará a cero voltios y si la tensión de base es de seis voltios el emisor estará a la misma tensión. Para que esto suceda así el circuito tiene que estar funcionando en la zona activa. Este tipo de circuitos tiene un comportamiento muy bueno frente a las variaciones de temperatura y es debido a que tiene conectada una resistencia, RE. El problema que pueden tener este tipo de circuitos es que disipan mucha potencia. Como en esta configuración se produce una ampliación de corriente, la corriente de salida es muy grande y al trabajar siempre en la región activa podemos disipar mucha potencia; este efecto se corrige poniendo una resistencia entre el colector y la fuente de alimentación. La característica más importante de esta configuración es que ofrece una "alta impedancia" (o resistencia) de entrada y una baja impedancia de salida. La corriente de entrada va a ser muy pequeña, mientras que la de salida puede llegar a ser muy grande. Esta característica influye totalmente en las aplicaciones que damos a este circuito: se usa como adaptador de impedancias, es decir, cuando queramos obtener una baja impedancia de salida. 5 El transistor bipolar frente a la válvula termoiónica Antes de la aparición del transistor los ingenieros utilizaban elementos activos llamados válvulas termoiónicas. Las válvulas tienen características eléctricas similares a la de los transistores de efecto campo (FET): la corriente que los atraviesa depende de la tensión en el borne de comando, llamado rejilla. Las razones por las que el transistor reemplazó a la válvula termoiónica son varias: Las válvulas necesitan tensiones muy altas, del orden de las centenas de voltios, que son peligrosas para el ser humano. Las válvulas consumen mucha energía, lo que las vuelve particularmente poco útiles para el uso con baterías. Probablemente, uno de los problemas más importantes haya sido el peso. El chasis necesario para alojar las válvulas y los transformadores requeridos para su funcionamiento sumaban un peso importante, que iba desde algunos kilos a decenas de kilos. El tiempo medio entre fallas de las válvulas termoiónicas es muy corto comparado con el de los transistores, sobre todo a causa del calor generado. Las válvulas presentan una cierta demora en comenzar a funcionar, ya que necesitan estar calientes para establecer la conducción. El transistor es intrínsecamente insensible al efecto microfónico, muy frecuente en las válvulas. Los transistores son más pequeños que las válvulas, incluso que los nuvistores. Aunque existe unanimidad sobre este punto, conviene hacer una salvedad: en el caso de dispositivos de potencia, estos deben llevar un disipador, de modo que el tamaño que se ha de considerar es el del dispositivo (válvula o transistor) más el del disipador. Como las válvulas pueden funcionar a temperaturas más elevadas, la eficiencia del disipador es mayor en ellas que en los transistores, con lo que basta un disipador mucho más pequeño. Los transistores trabajan con impedancias bajas, o sea con tensiones reducidas y corrientes altas; mientras que las válvulas presentan impedancias elevadas y por lo tanto trabajan con altas tensiones y pequeñas corrientes. Finalmente, el costo de los transistores no solamente era muy inferior, sino que contaba con la promesa de que continuaría bajando (como de hecho ocurrió) con suficiente investigación y desarrollo. Como ejemplo de todos estos inconvenientes se puede citar a la primera computadora digital, llamada ENIAC. Era un equipo que pesaba más de treinta toneladas y consumía 200 kilovatios, suficientes para alimentar una pequeña ciudad. Tenía alrededor de 18.000 válvulas, de las cuales algunas se quemaban cada día, necesitando una logística y una organización importantes. Cuando el transistor bipolar fue inventado en 1947, fue considerado una revolución. Pequeño, rápido, fiable, poco costoso, sobrio en sus necesidades de energía, reemplazó progresivamente a la válvula termoiónica durante la década de 1950, pero no del todo. En efecto, durante los años 1960, algunos fabricantes siguieron utilizando válvulas termoiónicas en equipos de radio de gama alta, como Collins y Drake; luego el transistor desplazó a la válvula de los transmisores pero no del todo de los amplificadores de radiofrecuencia. Otros fabricantes, de equipo de audio esta vez, como Fender, siguieron utilizando válvulas en amplificadores de audio para guitarras. Las razones de la supervivencia de las válvulas termoiónicas son varias: El transistor no tiene las características de linealidad a alta potencia de la válvula termoiónica, por lo que no pudo reemplazarla en los amplificadores de transmisión de radio profesionales y de radioaficionados sino hasta varios años después. Los armónicos introducidos por la no linealidad de las válvulas resultan agradables al oído humano, por lo que son preferidos por los audiófilos. El transistor es muy sensible a los efectos electromagnéticos de las explosiones nucleares, por lo que se siguieron utilizando válvulas termoiónicas en algunos sistemas de control-comando de aviones caza de fabricación soviética. Las válvulas son capaces de manejar potencias muy grandes, impensables para los transistores en sus comienzos; sin embargo a través de los años se desarrollaron etapas de potencia con múltiples transistores en paralelo capaces de conseguirlo. C- Chip o Circuito Integrado 1 Historia El primer circuito integrado fue desarrollado en 1959 por el ingeniero Jack Kilby (1923-2005) pocos meses después de haber sido contratado por la firma Texas Instruments. Lo creó a partir de una lámina de material semiconductor, construyendo todas las piezas del circuito eléctrico sobre esta. Con este invento se consiguió reducir mucho el tamaño de los circuitos eléctricos que antes era muy grande. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. Los circuitos integrados han hecho posible la fabricación de los microordenadores y las microcomputadora. Sin ellos, los circuitos individuales y sus componentes ocuparían demasiado espacio como para poder conseguir un diseño compacto. En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la enorme contribución de su invento al desarrollo de la tecnología. Al mismo tiempo que Jack Kilby, pero de forma independiente, Robert Noyce desarrolló su propio circuito integrado, que patentó unos seis meses después. Además resolvió algunos problemas prácticos que poseía el circuito de Kilby, como el de la interconexión de todos los componentes; al simplificar la estructura del chip mediante la adición del metal en una capa final y la eliminación de algunas de las conexiones, el circuito integrado se hizo más adecuado para la producción en masa. Además de ser uno de los pioneros del circuito integrado, Robert Noyce también fue uno de los co-fundadores de Intel, uno de los mayores fabricantes de circuitos integrados del mundo. A partir de 1966 los Circuitos Integrados comenzaron a fabricarse por millones y en la actualidad se considera una pieza esencial en los aparatos electrónicos. También un circuito integrado puede contener desde miles hasta varios millones de transistores en unos pocos milímetros cuadrados. El desarrollo de los circuitos integrados fue posible gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar algunas de las funciones de las válvulas de vacío. Las válvulas de vacío, no es más que un componente electrónico utilizado para amplificar, conmutar, o modificar una señal eléctrica mediante el control del movimiento de los electrones en un espacio "vacío" a muy baja presión, o en presencia de gases especialmente seleccionados. La integración de grandes cantidades de diminutos transistores en pequeños chips fue un enorme avance sobre el ensamblaje manual de los tubos de vacío y en la fabricación de circuitos electrónicos utilizando componentes discretos. La capacidad de producción masiva de circuitos integrados, su confiabilidad y la facilidad de agregarles complejidad, llevó a su estandarización, reemplazando diseños que utilizaban transistores discretos, y que pronto dejaron obsoletas a las válvulas o tubos de vacío. Los 2 Avances en los circuitos integrados avances que fundamentalmente, hicieron los posible desarrollos en el circuito la integrado fabricación de han sido, dispositivos semiconductores a mediados del siglo XX y los descubrimientos experimentales que mostraron que estos dispositivos podían reemplazar las funciones de las válvulas o tubos de vacío, que se volvieron rápidamente obsoletos al no poder competir con el pequeño tamaño, el consumo de energía moderado, los tiempos de conmutación mínimos, la confiabilidad, la capacidad de producción en masa y la versatilidad de los CI. Entre los circuitos integrados más complejos y avanzados se encuentran los microprocesadores, que controlan numerosos aparatos, desde teléfonos móviles y hornos microondas hasta computadoras. Los chips de memorias digitales son otra familia de circuitos integrados, de importancia crucial para la moderna sociedad de la información. Mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción, el costo individual de los CI por lo general se reduce al mínimo. La eficiencia de los CI es alta debido a que el pequeño tamaño de los chips permite cortas conexiones que posibilitan la utilización de lógica de bajo consumo y con altas velocidades de conmutación. Los circuitos integrados se encuentran en todos los aparatos electrónicos modernos, como relojes de pulsera, automóviles, televisores, reproductores de CD, reproductores de MP3, teléfonos móviles, computadoras, equipos médicos, etc. Hoy en día los circuitos integrados han evolucionando: se fabrican en tamaños cada vez más pequeños, con mejores características y prestaciones, mejoran su eficiencia y su eficacia, y se permite así que mayor cantidad de elementos sean empaquetados (integrados) en un mismo chip. Al tiempo que el tamaño se reduce, otras cualidades también mejoran (el costo y el consumo de energía disminuyen, y a la vez que aumenta el rendimiento). Aunque estas ganancias son aparentemente para el usuario final, existe una feroz competencia entre los fabricantes para utilizar geometrías cada vez más delgadas. 3 Popularidad Medio siglo después de iniciado su desarrollo los circuitos integrados se han vuelto casi omnipresentes. La informática, las comunicaciones, la manufactura y los sistemas de transporte, incluyendo Internet, todos dependen de la existencia de los circuitos integrados. De hecho, muchos estudiosos piensan que la revolución digital causada por los circuitos integrados es uno de los sucesos más significativos de la historia de la humanidad. La creciente popularidad de los circuitos integrados digitales se debe a la disponibilidad de circuitos in-tegrados (CI) a precios bajos. Los fabricantes han desarrollado muchas familias de CI digitales (grupos que pueden ser usados para la construcción de un sistema digital). Se dice que los CI de una familia son compatibles y es fácil realizar una conexión entre ellos. 4 Tipos Existen al menos tres tipos de circuitos integrados: Circuitos monolíticos: Están fabricados en un solo mono cristal, habitualmente de silicio, pero también existen en germanio, arseniuro de galio, silicio-germanio, etc. Circuitos híbridos de capa fina: Son muy similares a los circuitos monolíticos, pero, además, contienen componentes difíciles de fabricar con tecnología monolítica. Muchos conversores A/D y conversores D/A se fabricaron en tecnología híbrida hasta que los progresos en la tecnología permitieron fabricar resistores precisos. Circuitos híbridos de capa gruesa: Se apartan bastante de los circuitos monolíticos. De hecho suelen contener circuitos monolíticos sin cápsula, transistores, diodos, etc., sobre un sustrato dieléctrico, interconectados con pistas conductoras. Los resistores se depositan por serigrafía y se ajustan haciéndoles cortes con láser. Todo ello se encapsula, en cápsulas plásticas o metálicas, dependiendo de la disipación de energía calórica requerida. En muchos casos, la cápsula no está "moldeada", sino que simplemente se cubre el circuito con una resina epoxi para protegerlo. En el mercado se encuentran circuitos híbridos para aplicaciones en módulos de radio frecuencia (RF), fuentes de alimentación, circuitos de encendido para automóvil, etc. 5 Clasificación Se puede hacer varios tipos de clasificaciones según el criterio que se use. Una de estas clasificaciones está basada en el tipo de transistores que se emplee. Así, se puede tener un CI bipolar, si se fabrica a base de transistores bipolares, NPN y PNP, y circuitos integrados MOS, si lo que se usan son transistores de efecto campo más conocidos como MOS. Según la manera de fabricar un CI se puede encontrar circuitos integrados monolíticos, en los cuales se forman todos los componentes a la vez en el substrato semiconductor. Atendiendo al nivel de integración -número de componentes- los circuitos integrados se pueden clasificar en: SSI (Small Scale Integration) pequeño nivel: de 10 a 100 transistores MSI (Medium Scale Integration) medio: 101 a 1.000 transistores LSI (Large Scale Integration) grande: 1.001 a 10.000 transistores VLSI (Very Large Scale Integration) muy grande: 10.001 a 100.000 transistores ULSI (Ultra Large Scale Integration) ultra grande: 100.001 a 1.000.000 transistores GLSI (Giga Large Scale Integration) giga grande: más de un millón de transistores En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos: Circuitos integrados analógicos Los circuitos integrados analógicos más comúnmente constituyen una parte de las fuentes de alimentación, los instrumentos y las comunicaciones. En estas aplicaciones, los circuitos integrados analógicos amplifican, filtran y modifican señales eléctricas. En los teléfonos celulares, amplifican y filtran la señal de entrada de la antena del teléfono. El sonido codificado en la señal tiene un nivel de baja amplitud, después de que el circuito filtra la señal sonora de la señal de entrada, el circuito amplifica la señal de sonido y lo envía al altavoz de tu teléfono celular, lo que le permite escuchar la voz en el otro extremo. Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta circuitos completos y funcionales, como amplificadores, osciladores o incluso receptores de radio completos. Circuitos integrados digitales Los circuitos integrados digitales se utilizan principalmente para construir sistemas informáticos, también se producen en los teléfonos celulares, equipos de música y televisores. Los circuitos integrados digitales incluyen microprocesadores, micros controladores y circuitos lógicos. Realizan cálculos matemáticos, dirigen el flujo de datos y toman decisiones basadas en principios lógicos booleanos. El sistema booleano utilizado se centra en dos números: 0 y 1. Por otro lado, el sistema de base 10, el sistema de numeración que aprendes en la escuela primaria, se basa en 10 números: 0, 1, 3, 4, 5, 6, 7, 8 y 9. Pueden ser desde básicas puertas lógicas (AND, OR, NOT) hasta los más complicados microprocesadores o micro controladores. Algunos son diseñados y fabricados para cumplir una función específica dentro de un sistema mayor y más complejo. En general, la fabricación de los CI es compleja ya que tienen una alta integración de componentes en un espacio muy reducido, de forma que llegan a ser microscópicos. Sin embargo, permiten grandes simplificaciones con respecto a los antiguos circuitos, además de un montaje más eficaz y rápido. 6. Limitaciones de los circuitos integrados Existen ciertos límites físicos y económicos al desarrollo de los circuitos integrados. Básicamente, son barreras que se van alejando al mejorar la tecnología, pero no desaparecen. Las principales son: - 6.1. Disipación de potencia Los circuitos eléctricos disipan potencia. Cuando el número de componentes integrados en un volumen dado crece, las exigencias en cuanto a disipación de esta potencia, también crecen, calentando el sustrato y degradando el comportamiento del dispositivo. Además, en muchos casos es un sistema de realimentación positiva, de modo que cuanto mayor sea la temperatura, más corriente conduce, fenómeno que se suele llamar "embalamiento térmico" y, que si no se evita, llega a destruir el dispositivo. Los amplificadores de audio y los reguladores de tensión son proclives a este fenómeno, por lo que suelen incorporar protecciones térmicas. Los circuitos de potencia, evidentemente, son los que más energía deben disipar. Para ello su cápsula contiene partes metálicas, en contacto con la parte inferior del chip, que sirven de conducto térmico para transferir el calor del chip al disipador o al ambiente. La reducción de resistividad térmica de este conducto, así como de las nuevas cápsulas de compuestos de silicona, permiten mayores disipaciones con cápsulas más pequeñas. Los circuitos digitales resuelven el problema reduciendo la tensión de alimentación y utilizando tecnologías de bajo consumo, como CMOS. Aun así en los circuitos con más densidad de integración y elevadas velocidades, la disipación es uno de los mayores problemas, llegándose a utilizar experimentalmente ciertos tipos de criostatos. Precisamente la alta resistividad térmica del arseniuro de galio es su talón de Aquiles para realizar circuitos digitales con él. - 6.2. Capacidades y Autoinducciones parásitas Este efecto se refiere principalmente a las conexiones eléctricas entre el chip, la cápsula y el circuito donde va montada, limitando su frecuencia de funcionamiento. Con pastillas más pequeñas se reduce la capacidad y la autoinducción de ellas. En los circuitos digitales excitadores de buses, generadores de reloj, etc., es importante mantener la impedancia de las líneas y, todavía más, en los circuitos de radio y de microondas. - 6.3. Límites en los componentes Los componentes disponibles para integrar tienen ciertas limitaciones, que difieren de sus contrapartidas discretas. Resistores. Son indeseables por necesitar una gran cantidad de superficie. Por ello sólo se usan valores reducidos y en tecnologías MOS se eliminan casi totalmente. Condensadores. Sólo son posibles valores muy reducidos y a costa de mucha superficie. Como ejemplo, en el amplificador operacional μA741, el condensador de estabilización viene a ocupar un cuarto del chip. Inductores. Se usan comúnmente en circuitos de radiofrecuencia, siendo híbridos muchas veces. En general no se integran. - 6.4. Densidad de integración Durante el proceso de fabricación de los circuitos integrados se van acumulando los defectos, de modo que cierto número de componentes del circuito final no funcionan correctamente. Cuando el chip integra un número mayor de componentes, estos componentes defectuosos disminuyen la proporción de chips funcionales. Es por ello que en circuitos de memorias, por ejemplo, donde existen millones de transistores, se fabrican más de los necesarios, de manera que se puede variar la interconexión final para obtener la organización especificada. D- Microprocesador: El microprocesador es la parte de la computadora diseñada para llevar acabo o ejecutar los programas. Este viene siendo el cerebro de la computadora, el motor, el corazón de esta máquina. Este ejecuta instrucciones que se le dan a la computadora a muy bajo nivel haciendo operaciones lógicas simples, como sumar, restar, multiplicar y dividir. El microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip. 1 Historia de los microprocesadores El microprocesador es uno de los logros más sobresalientes del siglo XX. Esas son palabras atrevidas, y hace un cuarto de siglo tal afirmación habría parecido absurda. Pero cada año, el microprocesador se acerca más al centro de nuestras vidas, forjándose un sitio en el núcleo de una máquina tras otra. Su presencia ha comenzado a cambiar la forma en que percibimos el mundo e incluso a nosotros mismos. Cada vez se hace más difícil pasar por alto el microprocesador como otro simple producto en una larga línea de innovaciones tecnológicas. 1.1 La evolución del microprocesador El microprocesador es un producto de la computadora y con tecnología semiconductora. Se eslabona desde la mitad de los años 50's; estas tecnologías se fusionaron a principios de los años 70`'s, produciendo el llamado microprocesador. La computadora digital hace cálculos bajo el control de un programa. La manera general en que los cálculos se han hecho es llamada la arquitectura de la computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el microprocesador es un circuito con transistores o microcircuito LSI (grande escala de integración), para ser más preciso. El mapa de la figura, mostrada al final de esta sección, muestra los sucesos importantes de éstas dos tecnologías que se desarrollaron en las últimas cinco décadas. Las dos tecnologías iniciaron su desarrollo desde la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras especialmente para uso militar. Después de la guerra, a mediados del año de 1940 la computadora digital fue desarrollada para propósitos científicos y civiles. La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de dispositivos físicos de Estado Sólido. En 1948 en los laboratorios Bell crearon el Transistor. En los años 50's, aparecen las primeras computadoras digitales de propósito general. Éstas usaban tubos al vacío (bulbos) como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío fueron usados para construir circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde se almacena un bit). Ensamblando compuertas y flip-flops en módulos, los científicos construyeron la computadora ( la lógica de control, circuitos de memoria, etc.). Los bulbos también formaron parte de la construcción de máquinas para la comunicación con las computadoras. Para el estudio de los circuitos digitales, en la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El principal paso tomado en la computadora fue hacer que el dato fuera almacenado en memoria como una forma de palabra digital. La idea de almacenar programas fue muy importante. A mediados de los años 60's se producen las familias de lógica digital, dispositivos en escala SSI y MSI que corresponden a pequeña y mediana escala de integración de componentes en los circuitos de fabricación. A finales de los años 60's y principios de los años 70's surgieron los LSI (gran escala de integración ). La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Pero pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo. 1.2 Breve historia Las primeras calculadoras electrónicas requerían de 75 a 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando un circuito que fue llamado el microprocesador. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y velocidad muchos mayores. Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con 9,3 millones de transistores. - 1971: El Intel 4004 - 1972: El Intel 8008 - 1974: El SC/MP - 1974: El Intel 8080 - 1975: Motorola 6800 - 1976: El Z80 - 1978: Los Intel 8086 y 8088 - 1982: El Intel 80286 - 1985: El Intel 80386 - 1985: El VAX 78032 - 1989: El Intel 80486 - 1991: El AMD AMx86 - 1993: PowerPC 601 - 1993: El Intel Pentium - 1994: EL PowerPC 620 - 1995: EL Intel Pentium Pro - 1996: El AMD K5 - 1996: Los AMD K6 y AMD K6-2 - 1997: El Intel Pentium II - 1998: El Intel Pentium II Xeon - 1999: El Intel Celeron - 1999: El AMD Athlon K7 (Classic y Thunderbird) - 1999: El Intel Pentium III - 1999: El Intel Pentium III Xeon - 2000: EL Intel Pentium 4 - 2001: El AMD Athlon XP - 2004: El Intel Pentium 4 (Prescott) 2004: El Intel Pentium 4 (Prescott) - 2004: El AMD Athlon 64 - 2006: EL Intel Core Duo - 2007: El AMD Phenom - 2008: El Intel Core Nehalem - 2008: Los AMD Phenom II y Athlon II - 2011: El Intel Core Sandy Bridge - 2011: El AMD Fusion - 2012: El Intel Core Ivy Bridge - 2013: El Intel Core Haswell 2 Funcionamiento Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético lógica, y dependiendo del procesador, puede contener una unidad de coma flotante. El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases: Prefetch, prelectura de la instrucción desde la memoria principal. Fetch, envío de la instrucción al decodificador Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer. Lectura de operandos (si los hay). Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento. Escritura de los resultados en la memoria principal o en los registros. Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de megahercios. 3 Rendimiento El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo. Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas. Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software 4. Arquitectura El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. Con la aparición de las computadoras personales (PC) y la reducción en el costo de las mismas, el microprocesador se convirtió en uno de los dispositivos electrónicos más importantes en la historia de la electrónica El microprocesador es una unidad procesadora de datos. En él se pueden diferenciar diversas partes: Encapsulado: Es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base. Memoria caché: Es una memoria ultrarrápida que emplea el procesador para tener alcance directo a ciertos datos que «predeciblemente» serán utilizados en las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para adquisición de datos. Todos los micros compatibles con PC poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él. Los micros más modernos (Core i3,Core i5 ,core i7, etc.) incluyen también en su interior otro nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3. Coprocesador matemático: Unidad de coma flotante. Es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte está considerada como una parte «lógica» junto con los registros, la unidad de control, memoria y bus de datos. Registros: Son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros está diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y dos registros. Memoria: Es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las accede desde allí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso. Puertos: Es la manera en que el procesador se comunica con el mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un «número de puerto» que el procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes especiales. 5. Fabricación 5.1 Procesadores de silicio El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un mono cristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se va formando el cristal. De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores. Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para eliminar cualquier defecto o impureza que pueda haber llegado a esta instancia. Después de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micra, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor. De aquí en adelante, comienza el proceso del «dibujado» de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de eliminar las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo «bocadillo» que contiene todos los circuitos interconectados del microprocesador. Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las máscaras utilizadas durante la fabricación. Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico (0,028 m3) de aire. Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos. Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso. La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea o simplemente con características desactivadas, tales como núcleos. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora. Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Estas conexiones se realizan utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es provista de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como los que equipan a los computadores. También se están desarrollando alternativas al silicio puro, tales como el carburo de silicio que mejora la conductividad del material, permitiendo mayores frecuencias de reloj interno; aunque aún se encuentra en investigación. 5.2 Otros materiales Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se puede omitir la utilización de otros materiales que son una alternativa tales como el germanio; tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado con materiales de características especiales como el grafeno o la molibdenita. 6. Empaquetado Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epóxidos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados. En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas micro esferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un zócalo de CPU o una placa base. Antiguamente la conexión del chip con los pines se realizaba por medio de micro alambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 GHz. 6.1 Disipación de calor Con el aumento de la cantidad de transistores integrados en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no es suficiente para mantener temperaturas aceptables y que no se dañe el material semiconductor, de manera que se hizo necesario el uso de mecanismos de enfriamiento forzado, esto es, la utilización de disipadores de calor. Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados. En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posible toma de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica. Para las prácticas de overclock extremo, se llegan a utilizar elementos químicos tales como hielo seco, y en casos más extremos, nitrógeno líquido, capaces de rondar temperaturas por debajo de los -190 grados Celsius y el helio líquido capaz de rondar temperaturas muy próximas al cero absoluto. De esta manera se puede prácticamente hasta triplicar la frecuencia de reloj de referencia de un procesador de silicio. El límite físico del silicio es de 10 GHz, mientras que el de otros materiales como el grafeno puede llegar a 1 THz 7 Conexión con el exterior El microprocesador posee un arreglo de elementos metálicos que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El montaje del procesador se realiza con la ayuda de un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos tres tipos de conexión: - PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres metálicos repartidos a lo largo de la base del procesador introduciéndose en la placa base mediante unos pequeños agujeros, al introducir el procesador, una palanca anclará los pines para que haga buen contacto y no se suelten. - BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al procesador que hacen contacto con el zócalo - LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto lisas con pequeños pines que incluye la placa base. Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones. 7.1Buses del procesador Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por segundo. Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control. En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 transferencias por ciclo. En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD, que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador de memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus está de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 4 buses de memoria. 8 Arquitecturas CISC Y RISC. Significado de los términos CISC y RISC: - CISC (complex instruction set computer) Computadoras con un conjunto de instrucciones complejo. - RISC (reduced instruction set computer) Computadoras con un conjunto de instrucciones reducido. Así, los términos complejo y reducido, expresan muy bien una importante característica definitiva, siempre que no se tomen solo como referencia las instrucciones, sino que se considere también la complejidad del hardware del procesador. La meta principal es incrementar el rendimiento del procesador, ya sea optimizando alguno existente o se desee crear uno nuevo. Arquitectura CISC La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC. Como por ejemplo: Intel 8086, 8088, 80286, 80386, 80486. Motorola 68000, 68010, 68020, 68030, 6840. La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador. En la década de los sesentas la micropramación, por sus características, era la técnica más apropiada para las tecnologías de memorias existentes en esa época y permitía desarrollar también procesadores con compatibilidad ascendente. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones. Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj (al menos uno por microinstrucción). Arquitectura RISC Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser más eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado. Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas. En investigaciones hechas a mediados de la década de los setentas, con respecto a la frecuencia de utilización de una instrucción en un CISC y al tiempo para su ejecución, se observó lo siguiente: - Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de ejecución de un programa. - Existen secuencias de instrucciones simples que obtienen el mismo resultado que secuencias complejas predeterminadas, pero requieren tiempos de ejecución más cortos. Las características esenciales de una arquitectura RISC pueden resumirse como sigue: Estos microprocesadores siguen tomando como base el esquema moderno de Von Neumann. Las instrucciones, aunque con otras características, siguen divididas en tres grupos: a) Transferencia. b) Operaciones. c) Control de flujo. Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que pueden implantarse todas las operaciones complejas. Arquitectura del tipo load-store (carga y almacena). Las únicas instrucciones que tienen acceso a la memoria son 'load' y 'store'; registró a registro, con un menor número de acceso a memoria. Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un control implantado por hardware (con un diseño del tipo load-store), casi todas las instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la reorganización de la ejecución de instrucciones por medio de un compilador. Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que esta técnica permite que una instrucción puede empezar a ejecutarse antes de que haya terminado la anterior. El hecho de que la estructura simple de un procesador RISC conduzca a una notable reducción de la superficie del circuito integrado, se aprovecha con frecuencia para ubicar en el mismo, funciones adicionales: Unidad para el procesamiento aritmético de punto flotante. Unidad de administración de memoria. Funciones de control de memoria cache. Implantación de un conjunto de registros múltiples. La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC. Por otra parte, es necesario considerar también que: La disponibilidad de memorias grandes, baratas y con tiempos de acceso menores de 60 ns en tecnologías CMOS. Módulos SRAM (Memoria de acceso aleatorio estática) para memorias cache con tiempos de acceso menores a los 15 ns. Tecnologías de encapsulado que permiten realizar más de 120 terminales. Esto ha hecho cambiar, en la segunda mitad de la década de los ochentas, esencialmente las condiciones técnicas para arquitecturas RISC. ¿En qué consisten los superconductores? Un superconductor es un material que no opone resistencia al flujo de corriente eléctrica por él. Los superconductores también presentan un acusado diamagnetismo, es decir, son repelidos por los campos magnéticos. 1 Comportamiento Magnético Aunque la propiedad más sobresaliente de los superconductores es la ausencia de resistencia, lo cierto es que no podemos decir que se trate de un material de conductividad infinita, ya que este tipo de material por sí sólo no tiene sentido termodinámico. En realidad un material superconductor de tipo I es perfectamente diamagnético. Esto hace que no permita que penetre el campo, lo que se conoce como efecto Meissner. El campo magnético distingue dos tipos de superconductores: los de tipo I, que no permiten en absoluto que penetre un campo magnético externo (lo cual conlleva un esfuerzo energético alto, e implica la ruptura brusca del estado superconductor si se supera la temperatura crítica), y los de tipo II, que son superconductores imperfectos, en el sentido en que el campo realmente penetra a través de pequeñas canalizaciones denominadas vórtices de Abrikosov, o fluxones. Estos dos tipos de superconductores son de hecho dos fases diferentes que fueron predichas por Lev Davidovich Landau y Aleksey Alekséyevich Abrikosov. Cuando a un superconductor de tipo II le aplicamos un campo magnético externo débil lo repele perfectamente. Si lo aumentamos, el sistema se vuelve inestable y prefiere introducir vórtices para disminuir su energía. Éstos van aumentando en número colocándose en redes de vórtices que pueden ser observados mediante técnicas adecuadas. Cuando el campo es suficientemente alto, el número de defectos es tan alto que el material deja de ser superconductor. Éste es el campo crítico que hace que un material deje de ser superconductor y que depende de la temperatura 2 Comportamiento eléctrico La aparición del superdiamagnetismo es debida a la capacidad del material de crear supercorrientes. Éstas son corrientes de electrones que no disipan energía, de manera que se pueden mantener eternamente sin obedecer el Efecto Joule de pérdida de energía por generación de calor. Las corrientes crean el intenso campo magnético necesario para sustentar el efecto Meissner. Estas mismas corrientes permiten transmitir energía sin gasto energético, lo que representa el efecto más espectacular de este tipo de materiales. Debido a que la cantidad de electrones superconductores es finita, la cantidad de corriente que puede soportar el material es limitada. Por tanto, existe una corriente crítica a partir de la cual el material deja de ser superconductor y comienza a disipar energía. En los superconductores de tipo II, la aparición de fluxones provoca que, incluso para corrientes inferiores a la crítica, se detecte una cierta disipación de energía debida al choque de los vórtices con los átomos de la red. 3 Calor especifico En los metales el calor específico es una función de la temperatura. Cuando la temperatura es muy baja, pero el metal está en el estado normal Donde a y b son constantes que se pueden medir mediante experimentos. El primer término (el término lineal) refleja la conducción eléctrica, mientras que el segundo término (el que varía con el cubo de la temperatura) se debe a los fonones (es decir, a las vibraciones de la red). Sin embargo, si seguimos enfriando y el metal pasa al estado superconductor, este comportamiento cambia radicalmente: el calor específico tiene una discontinuidad en la temperatura crítica, aumentando sensiblemente . 4 Historia de la superconductividad 4.1 El descubrimiento La historia de la superconductividad empieza en 1911 en Leiden, Países Bajos. Allí H. Kamerlingh Onnes desarrollo las primeras técnicas criogénicas para enfriar muestras hasta algunos grados por encima del cero absoluto (correspondientes a cero Kelvin, es decir, menos doscientos, setenta y tres grados centígrados). Fue el primero que consiguió llevar el helio hasta debajo de su punto de licuefacción (4,2ºK), abriendo así el campo de las bajas temperaturas. Al principio, Kamerlingh Onnes "monopolizó" completamente este campo, ya que Leiden fue, hasta 1923, el único lugar del mundo que disponía de helio líquido. En aquellas épocas se sabía que los metales tiene una resistividad que disminuye de manera prácticamente lineal con la temperatura hasta unos veinte Kelvin, y se quería saber que ocurría con esta resistividad en las proximidades del cero absoluto: ¿seguía decreciendo linealmente? ¿Tendía, quizás, a un valor constante? O bien ¿se remontaría hacia valores muy elevados, característicos de un comportamiento aislante en vez de conductor? Kamerlingh Onnes se dio cuenta muy pronto de que era necesario disponer de metales muy puros, si quería obtener resultados libres de toda ambigüedad. Eligió el mercurio, elemento que puede conseguirse con un alto grado de pureza mediante sucesivas destilaciones y que además es conductor en estado metálico. De este modo, y enfriando el mercurio a muy baja temperatura, pudo observar un fenómeno nuevo y totalmente inesperado: a una temperatura de 4,2ºK, el mercurio pasaba bruscamente a un estado en el que, repentinamente, no ofrecía resistividad alguna al paso de la corriente eléctrica. Esta transición se manifestaba por una caída muy brusca de la resistividad. Kamerlingh Onnes había descubierto la superconductividad. Gracias a sus descubrimientos, principalmente por su método para lograr la producción de helio líquido, recibiría dos años más tarde el premio Nobel de física. Poco después se observó que la misma transición al estado de superconductor se producía en otros metales, como el plomo o el niobio, a temperaturas criticas ligeramente más altas. Posteriormente a partir de los años 1930, la superconductividad se observó también en cuerpos compuestos, principalmente en aleaciones intermetalicas. La elevación de las temperaturas críticas (Tc) fue prosiguiendo a lo largo de los años, con un progreso lento pero bastante regular. En 1973 la temperatura crítica más elevada fue de 23,3 Kelvin, con una aleación de niobio y germanio (Nb Ge). Trece años más tarde la situación era la misma y la mayoría de los físicos habían acabado por convencerse de que no podía llegarse mucho más lejos. En el año 1960 se demostró que el titanato de estroncio (SrTiO) se hace superconductor, pero con una temperatura de transición muy baja: 0,3 Kelvin. Posteriores estudios analizados en Rüshlikon permitieron aumentar esta temperatura crítica hasta 0,8 Kelvin mediante el dopado del compuesto con niobio. Diez años más tardes en 1973, D.C. Johnston y sus colegas obtuvieron un resultado más significativo con un oxido de titanio y litio (Li-Ti-O): una temperatura critica de 13,7 Kelvin. En 1975, A.W. Sleight y sus colaboradores observaron una transición a 13 Kelvin en un compuesto de valencia mixta: un oxido de bario y plomo dopado con bismuto (BaPbBiO). En esta fórmula el subíndice x indica la proporción de bismuto sustituida en el plomo. Desde 1986, fecha de su descubrimiento los superconductores de la temperatura relativamente elevadas plantean difíciles problemas a los teóricos. Todavía no se sabe si el mecanismo responsable del agrupamiento de los electrones por pares que está en el origen de la superconductividad es o no similar al de los superconductores convencionales. 4.1 Las teorías principales Los mayores avances en la comprensión de la superconductividad tuvieron lugar en los años cincuenta: en 1950 es publicada la teoría Ginzburg-Landau, y en 1957 vería la luz la teoría BCS. La teoría BCS fue desarrollada por Bardeen, Cooper y Schrieffer (de sus iniciales surge el nombre BCS), gracias a lo cual los tres recibirían el premio Nobel de física en 1972. Esta teoría se pudo desarrollar gracias a dos pistas fundamentales ofrecidas por físicos experimentales a principios de los años cincuenta: el descubrimiento del efecto isotópico en 1950 (que vinculó la superconductividad con la red cristalina), y el descubrimiento de Lars Onsager en 1953 de que los portadores de carga son en realidad parejas de electrones llamados pares de Cooper (resultado de experimentos sobre la cuantización flujo magnético que pasa a través de un anillo superconductor). La teoría Ginzburg-Landau es una generalización de la teoría de London desarrollada por Vitaly Ginzburg y Lev Landau en 1950. Si bien esta teoría precede siete años a la teoría BCS, los físicos de Europa Occidental y Estados Unidos le prestaron poca atención por su carácter más fenomenológico que teórico, unido a la incomunicación de aquellos años entre ambos lados del Telón de Acero. Esta situación cambió en 1959, año en que Lev Gor'kov demostró que se podía derivar rigurosamente a partir de la teoría microscópica en un artículo que también publicó en inglés.3 En 1962 Brian David Josephson predijo que podría haber corriente eléctrica entre dos conductores incluso si hubiera una pequeña separación entre estos, debido al efecto túnel. Un año más tarde Anderson y Rowell lo confirmaron experimentalmente. El efecto sería conocido como efecto Josephson, y está entre los fenómenos más importantes de los superconductores, teniendo gran variedad de aplicaciones, desde la magneto encefalografía hasta la predicción de terremotos. 4.3 Los superconductores de alta temperatura Tras algunos años de relativo estancamiento, en 1987 Bednorz y Müller descubrieron que una familia de materiales cerámicos, los óxidos de cobre con estructura de perovsquita, eran superconductores con temperaturas críticas superiores a 90 kelvin. Estos materiales, conocidos como superconductores de alta temperatura, estimularon un renovado interés en la investigación de la superconductividad. Como tema de la investigación pura, estos materiales constituyen un nuevo fenómeno que solo se explica por el hecho de que hace pasar los electrones por parejas o "pares de Cooper". Y, debido a que el estado superconductor persiste hasta temperaturas más manejables, superiores al punto de ebullición del nitrógeno líquido, muchas aplicaciones comerciales serían viables, sobre todo si se descubrieran materiales con temperaturas críticas aún mayores. Con superconductividad de alta temperatura se puede hacer referencia a dos clasificaciones de los superconductores: o bien se refiere a aquellos que no responden a la teoría BCS, o bien se refiere a superconductores con temperatura crítica mayor que la temperatura de ebullición del nitrógeno (77K). Que haga referencia a estas dos clasificaciones se debe a que, por lo general, la temperatura crítica de los superconductores que no cumplen la BCS es mayor que las de aquellos que sí la siguen, aunque existen múltiples excepciones. Este tipo de superconductividad fue descubierta en 1986 por Karl Alexander Müller y Johannes Georg Bednorz y fue inmediatamente reconocida por el Premio Nobel de Física de 1987. Desde el punto de vista de la clasificación hecha anteriormente, estos estudios se corresponden con los superconductores que no cumplen la teoría BCS, aunque su temperatura crítica es mayor que la de todos los superconductores convencionales conocidos por aquel entonces. La búsqueda de una comprensión teórica de la superconductividad de alta temperatura se considera como uno de los problemas más importantes sin resolver en la física. Actualmente sigue siendo un tema de intensa investigación experimental y teórica, con más de 100000 documentos publicados sobre el tema. Pese a las intensas investigaciones, una explicación satisfactoria sigue eludiendo a los científicos. Una de las razones para ello es que los materiales en cuestión son por lo general muy complejos, con varias capas de cristales (por ejemplo, BSCCO), lo que hace difícil el modelado teórico. Sin embargo, con el rápido ritmo de nuevos descubrimientos en este campo, muchos investigadores son optimistas en una completa comprensión del proceso dentro de la próxima década más o menos.