Download Los circuitos integrados se encuentran en todos

Document related concepts
no text concepts found
Transcript
¿En qué consisten los semiconductores?
Un semiconductor es un componente que no es directamente un conductor de
corriente, pero tampoco es un aislante, dependiendo de diversos factores, como
por ejemplo el campo eléctrico o magnético, la presión, la radiación que le incide,
o la temperatura del ambiente en el que se encuentre.
En los semiconductores se producen corrientes producidas por el movimiento de
electrones como de las cargas positivas (huecos). Los semiconductores son
aquellos elementos pertenecientes
al grupo IV de la Tabla Periódica
(Silicio, Germanio, etc.
Generalmente a estos se le
introducen átomos de otros
elementos, denominados
impurezas, de forma que la
corriente se deba primordialmente a
los electrones o a los huecos,
dependiendo de la impureza introducida. Otra característica que los diferencia se
refiere a su resistividad, estando ésta comprendida entre la de los metales y la de
los aislantes.
1- Tipos de Conductores
Debemos dividir a los semiconductores en dos grupos: intrínsecos y
extrínsecos. Los semiconductores extrínsecos son aquellos a los que se
les ha dopado de alguna forma, produciendo así un semiconductor tipo
P o del tipo N. Y los intrínsecos son los que no han sufrido ninguna
clase de dopaje
1.1 Conductores Intrínsecos: Se dice que un semiconductor es
“intrínseco” cuando se encuentra en estado
puro, o sea, que no contiene ninguna
impureza, ni átomos de otro tipo dentro de
su estructura. En ese caso, la cantidad de
huecos que dejan los electrones en la banda
de valencia al atravesar la banda prohibida
será igual a la cantidad de electrones libres
que se encuentran presentes en la banda de
conducción.
En un semiconductor intrínseco también hay
flujos de electrones y huecos, aunque la corriente total resultante sea cero.
Esto se debe a que por acción de la energía térmica se producen los
electrones libres y los huecos por pares, por lo tanto hay tantos electrones
libres como huecos con lo que la corriente total es cero.
La tensión aplicada en la figura forzará a los electrones libres a circular
hacia la derecha (del terminal negativo de la pila al positivo) y a los huecos
hacia la izquierda.
Cuando los electrones libres llegan la extremo derecho del cristal, entran al
conductor externo (normalmente un hilo de cobre) y circulan hacia el
terminal positivo de la batería. Por otro lado, los electrones libres en el
terminal negativo de la batería fluirían hacia los extremos izquierdos del
cristal. Así entran en el cristal y se recombinan con los huecos que llegan al
extremo izquierdo del cristal. Se produce un flujo estable de electrones
libres y huecos dentro del semiconductor.
1.2 Conductores Extrínsecos:
Cuando a la estructura molecular cristalina del silicio o del germanio se le
introduce cierta alteración, esos elementos semiconductores permiten el
paso de la corriente eléctrica por su cuerpo en una sola dirección. Para
hacer posible, la estructura molecular del semiconductor se dopa
mezclando los átomos de silicio o de germanio con pequeñas cantidades de
átomos de otros elementos o "impurezas".
Generalmente los átomos de las “impurezas” corresponden también a
elementos semiconductores que, en lugar de cuatro, poseen tres electrones
en su última órbita [como el galio (Ga) o el indio (In)], o que poseen cinco
electrones también en su última órbita [como el antimonio (Sb) o el arsénico
(As)]. Una vez dopados, el silicio o el germanio se convierten en
semiconductores “extrínsecos” y serán capaces de conducir la corriente
eléctrica.
1.2.1 Semiconductor tipo N
Un Semiconductor tipo N se obtiene llevando a cabo un proceso de dopado
añadiendo un cierto tipo de átomos al semiconductor para poder aumentar
el número de portadores de carga libres (en este caso negativos o
electrones).
Cuando se añade el material
dopante, aporta sus electrones más
débilmente vinculados a los átomos
del semiconductor. Este tipo de
agente dopante es también conocido
como material donante, ya que da
algunos de sus electrones.
El propósito del dopaje tipo n es el
de producir abundancia de electrones portadores en el material
Si los átomos añadidos tienen cinco electrones en su última capa el
semiconductor se denomina de tipo N, por ser potencialmente más negativo
que uno sin dopar. En este tipo de materiales tenemos un quinto electrón
que no se recombina con los demás y que, por tanto, está libre y vaga por
el elemento produciendo corriente. Para hacerse una idea de las cantidades
que entran en juego en esto del dopaje se podría decir que se introduce un
átomo extraño por cada doscientos millones de átomos del semiconductor.
1.2.2 Semiconductor Tipo P
Un Semiconductor tipo P se obtiene llevando a cabo un proceso de dopado,
añadiendo un cierto tipo de átomos al semiconductor para poder aumentar
el número de portadores de carga libres (en este caso positivos o huecos).
Cuando se añade el material dopante libera los electrones más débilmente
vinculados de los átomos del semiconductor. Este agente dopante es
también conocido como material aceptor y los átomos del semiconductor
que han perdido un electrón son conocidos como huecos
El propósito del dopaje tipo P es el de crear abundancia de huecos.
Cuando al dopar introducimos átomos
con tres electrones de valencia en un
elemento de átomos con cuatro estamos
formando un semiconductor tipo P,
viniendo su nombre del exceso de carga
aparentemente positiva (porque los
átomos siguen siendo neutros, debido a
que tienen igual número de electrones que de protones) que tienen estos
elementos. Estos átomos "extraños" que hemos añadido se recombinan
con el resto pero nos queda un hueco libre que produce atracción sobre los
electrones que circulan por nuestro elemento. También se produce una
circulación de estos huecos colaborando en la corriente.
Tipo de Semiconductores y su complejidad
A- Diodo
Un diodo es un componente electrónico de dos terminales que permite la
circulación de la corriente eléctrica a través de él en un solo sentido
Es el dispositivo semiconductor más sencillo y se puede encontrar
prácticamente en cualquier circuito electrónico.
Los diodos se fabrican en versiones de silicio (la más utilizada) y de
germanio. Esta barrera o unión es de 0.3 voltios en el germanio y de 0.6
voltios aproximadamente en el diodo de silicio.
Los primeros diodos eran válvulas o tubos de vacío, también llamados
válvulas termoiónicas constituidos por dos electrodos rodeados de vacío en
un tubo de cristal, con un aspecto similar al de las lámparas
incandescentes.

1 Historia
Diodo de vacío, usado comúnmente hasta la invención del diodo semiconductor,
este último también llamado diodo sólido.
Aunque el diodo semiconductor de estado sólido se popularizó antes del diodo
termoiónico, ambos se desarrollaron al mismo tiempo.
En 1873 Frederick Guthrie descubrió el principio de
operación de los diodos térmicos. Guhtrie descubrió que
un electroscopio cargado positivamente podría
descargarse al acercarse una pieza de metal caliente,
sin necesidad de que éste lo tocara. No sucedía lo
mismo con un electroscopio cargado negativamente,
reflejando esto que el flujo de corriente era posible
solamente en una dirección.
Fleming patentó el primer diodo termoiónico en Gran
Bretaña el 16 de noviembre de 1904.
En 1874 el científico alemán Karl Ferdinand Braun descubrió la naturaleza de
conducir por una sola dirección de los cristales semiconductores. Braun patentó el
rectificador de cristal en 1899.
Los principios del diodo termoiónico fueron vueltos a descubrir por Thomas Edison
de febrero el 13 1880 y de él tomó hacia fuera una patente en 1883, pero
desarrolló la idea no más lejos.
A la hora de su invención tales dispositivos eran conocidos como rectificadores.
Los rectificadores de óxido de cobre y selenio fueron desarrollados para
aplicaciones de alta potencia en la década de los 1930.En el Henrio 1919 de
Guillermo Eccles acuñó el diodo del término de las raíces griegas; el di significa
"dos ", y la oda (de odos) signifícala " trayectoria".

2 Diodos Termoiónicos y de estado gaseoso
Los diodos termoiónicos son los dispositivos del tubo de vacío (también conocidos
como válvulas termoiónicas), que son arreglos de los electrodos rodeados por un
vacío dentro de un sobre de cristal, similares en aspecto a las bombillas
incandescentes.
En los diodos del tubo de vacío, una corriente se pasa a través del cátodo, de un
filamento tratado con una mezcla del bario y de los óxidos del estroncio, que son
óxidos de los metales de la tierra alcalina. La corriente calienta el filamento,
causando la emisión termoiónica de electrones en el sobre del vacío. En la
operación delantera, un electrodo circundante del metal, llamó el ánodo, se carga
positivamente, de modo que atraiga electrostático los electrones emitidos. Sin
embargo, los electrones no se lanzan fácilmente de la superficie sin calentar del
ánodo cuando se invierte la polaridad del voltaje y por lo tanto cualquier corriente
contraria es una corriente muy minúscula.
Para mucho del vigésimo tubo de vacío del siglo los diodos fueron utilizados en
usos de la señal análoga, y como rectificadores en fuentes de alimentación. Hoy,
los diodos del tubo se utilizan solamente en usos del lugar, tales como
rectificadores en guitarra del tubo y los amplificadores de alta fidelidad, y el equipo
de alto voltaje especializado.
En la mayoría del siglo 20 los diodos de válvula termoiónica se usaron en
aplicaciones de señales análogas, rectificadores y potencia. Hasta el día de hoy,
los diodos de válvula solamente se usan en aplicaciones exclusivas como
rectificadores en guitarras eléctricas, amplificadores de audio, así como equipo
especializado de alta tensión.

3 Diodo Semiconductor
Un diodo semiconductor moderno está hecho de cristal semiconductor como el
silicio con impurezas en él para crear una región que contiene portadores de carga
negativa (electrones), llamado semiconductor de tipo n, y una región en el otro
lado que contiene portadores de carga positiva (huecos), llamado semiconductor
tipo p
La mayoría de los diodos modernos se basan en ensambladuras del p-n del
semiconductor. En un diodo del p-n, la corriente convencional puede fluir del p-tipo
lado (el ánodo) al n-tipo lado (el cátodo), pero no en la dirección opuesta. Otro tipo
de diodo del semiconductor, el diodo de Schottky, se forma del contacto entre un
metal y un semiconductor más bien que
por una ensambladura del p-n.
Las terminales del diodo se unen a cada
región. El límite dentro del cristal de estas
dos regiones, llamado una unión PN, es
donde la importancia del diodo toma su
lugar. El cristal conduce una corriente de
electrones del lado n (llamado cátodo),
pero no en la dirección opuesta; es decir,
cuando una corriente convencional fluye del ánodo al cátodo (opuesto al flujo de
los electrones).
Al unir ambos cristales, se manifiesta una difusión de electrones del cristal n al p.
Al establecerse una corriente de difusión, aparecen cargas fijas en una zona a
ambos lados de la unión, zona que recibe el nombre de región de agotamiento.
A medida que progresa el proceso de difusión, la región de agotamiento va
incrementando su anchura profundizando en los cristales a ambos lados de la
unión. Sin embargo, la acumulación de iones positivos en la zona n y de iones
negativos en la zona p, crea un campo eléctrico (E) que actuará sobre los
electrones libres de la zona n con una determinada fuerza de desplazamiento, que
se opondrá a la corriente de electrones y terminará deteniéndolos.
Este campo eléctrico es equivalente a decir que aparece una diferencia de tensión
entre las zonas p y n. Esta diferencia de potencial (VD) es de 0,7 V en el caso del
silicio y 0,3 V para los cristales de germanio.

3.1 Polarización Directa de un Diodo
Cuando polarizamos un diodo de forma directa, el polo positivo de la batería
rechaza los huecos o agujeros contenidos en la región "P" (ánodo del diodo), y los
obliga a dirigirse al empalme "p-n". En
esas condiciones, la “zona de
depleción” se reduce por completo, por
lo que los electrones en exceso en el
material negativo o cátodo adquieren la
suficiente energía como para poder
atravesar la barrera de potencial
existente en el empalme "p-n".
De esa forma los electrones penetran en la región "P" de la parte positiva del
diodo para combinarse ahí con los huecos o agujeros. Al mismo tiempo la
atracción que ejerce el polo positivo de la batería sobre los electrones (negativos)
provoca que estos salten o se desplacen de hueco en hueco a través de esa mitad
del diodo y recorran toda la región semiconductora "P". Así, los electrones que
cede la batería o fuente de energía eléctrica a partir de su polo negativo (–),
retornan a su polo positivo (+) después de atravesar el diodo. De esa manera se
restablece el equilibrio electrónico interno de la propia batería, el cual se ve
continuamente alterado durante todo el tiempo que se encuentre conectada al
circuito cediendo electrones a la región “N” del diodo.
En resumen, el movimiento de los electrones desplazándose desde la parte
negativa del diodo para recombinarse con los huecos en la parte positiva después
de atravesar el empalme "p-n" o barrera de potencial, permite que la corriente
electrónica fluya a través del mismo, siempre y cuando se encuentre polarizado
directamente. Si bajo esas condiciones conectamos un miliamperímetro y un
consumidor al circuito del diodo, se podrá apreciar que el instrumento de medición
registra la circulación de corriente eléctrica.

Polarización Inversa de un Diodo
En polarización inversa es más difícil la conducción, porque el electrón libre tiene
que subir una barrera de potencial muy grande de n a p al ser mayor el valor de
W. Entonces no hay conducción de electrones libres o huecos, no hay corriente.
En esta situación tenemos que tener en cuenta la generación térmica de pares
electrón-hueco. Los pocos electrones generados térmicamente pierden energía y
bajan de p a n, es la "Corriente Inversa de Saturación" (IS) que es muy pequeña.
Esa corriente tiene un sentido, siempre se
toma la corriente de p a n. Entonces sería
negativa en este caso.
Además de esta corriente tenemos otra
corriente debida a las fugas, que se denomina
"Corriente de Fugas".
En este caso, el polo negativo de la batería se
conecta a la zona p y el polo positivo a la zona
n, lo que hace aumentar la zona de carga espacial, y la tensión en dicha zona
hasta que se alcanza el valor de la tensión de la batería
El polo positivo de la batería atrae a los electrones libres de la zona n, los cuales
salen del cristal n y se introducen en el conductor dentro del cual se desplazan
hasta llegar a la batería. A medida que los electrones libres abandonan la zona n,
los átomos pentavalentes que antes eran neutros, al verse desprendidos de su
electrón en el orbital de conducción, adquieren estabilidad (8 electrones en la capa
de valencia, ver semiconductor y átomo) y una carga eléctrica neta de +1, con lo
que se convierten en iones positivos.
El polo negativo de la batería cede electrones libres a los átomos trivalentes de la
zona p. Recordemos que estos átomos sólo tienen 3 electrones de valencia, con lo
que una vez que han formado los enlaces covalentes con los átomos de silicio,
tienen solamente 7 electrones de valencia, siendo el electrón que falta el
denominado hueco. El caso es que cuando los electrones libres cedidos por la
batería entran en la zona p, caen dentro de estos huecos con lo que los átomos
trivalentes adquieren estabilidad (8 electrones en su orbital de valencia) y una
carga eléctrica neta de -1, convirtiéndose así en iones negativos.
Este proceso se repite una y otra vez hasta que la zona de carga espacial
adquiere el mismo potencial eléctrico que la batería.
En esta situación, el diodo no debería conducir la corriente; sin embargo, debido al
efecto de la temperatura se formarán pares electrón-hueco (ver semiconductor) a
ambos lados de la unión produciendo una pequeña corriente (del orden de 1 μA)
denominada corriente inversa de saturación. Además, existe también una
denominada corriente superficial de fugas la cual, como su propio nombre indica,
conduce una pequeña corriente por la superficie del diodo; ya que en la superficie,
los átomos de silicio no están rodeados de suficientes átomos para realizar los
cuatro enlaces covalentes necesarios para obtener estabilidad. Esto hace que los
átomos de la superficie del diodo, tanto de la zona n como de la p, tengan huecos
en su orbital de valencia con lo que los electrones circulan sin dificultad a través
de ellos. No obstante, al igual que la corriente inversa de saturación, la corriente
superficial de fuga es despreciable.

-
3.3 Curva característica del Diodo
Tensión umbral, de codo o de partida (Vγ).
La tensión umbral (también llamada barrera de potencial) de polarización
directa coincide en valor con la tensión de la zona de carga espacial del
diodo no polarizado. Al polarizar directamente el diodo, la barrera de
potencial inicial se va reduciendo, incrementando la corriente ligeramente,
alrededor del 1% de la nominal. Sin embargo, cuando la tensión externa
supera la tensión umbral, la barrera de potencial desaparece, de forma que
para pequeños incrementos de tensión se producen grandes variaciones de
la intensidad de corriente.
-
Corriente máxima (Imax).
Es la intensidad de corriente máxima que puede conducir el diodo sin
fundirse por el efecto Joule. Dado que es función de la cantidad de calor
que puede disipar el diodo, depende sobre todo del diseño del mismo.
-
Corriente inversa de saturación (Is).
Es la pequeña corriente que se establece al polarizar inversamente el diodo
por la formación de pares electrón-hueco debido a la temperatura,
admitiéndose que se duplica por cada incremento de 10 °C en la
temperatura.
-
Corriente superficial de fugas.
Es la pequeña corriente que circula por la superficie del diodo (ver
polarización inversa), esta corriente es función de la tensión aplicada al
diodo, con lo que al aumentar la tensión, aumenta la corriente superficial de
fugas.
-
Tensión de ruptura (Vr).
Es la tensión inversa máxima que el diodo puede soportar antes de darse el
efecto avalancha.
La ruptura puede deberse a dos efectos:

Efecto diodo inverso (diodos poco dopados). En polarización inversa se
generan pares electrón-hueco que provocan la corriente inversa de
saturación; si la tensión inversa es elevada los electrones se aceleran e
incrementan su energía cinética, de forma que al chocar con electrones de
valencia pueden provocar que salten a la banda de conducción. Estos
electrones liberados, a su vez, se aceleran por efecto de la tensión, chocan
con más electrones de valencia y los liberan también. El resultado es una
avalancha de electrones que provoca una corriente grande. Este fenómeno
se produce para valores de la tensión superiores a 6 V.

Efecto Zener (diodos muy dopados). Cuanto más dopado está el material,
menor es la anchura de la zona de carga. Puesto que el campo eléctrico E
puede expresarse como cociente de la tensión V entre la distancia d;
cuando el diodo esté muy dopado, y por tanto d sea pequeño, el campo
eléctrico será grande, del orden de 3·105 V/cm. En estas condiciones, el
propio campo puede ser capaz de arrancar electrones de valencia y
aumentar la corriente. Este efecto se produce para tensiones de 4 V o
menores.

3.4 Modelos Matemáticos
El modelo matemático más empleado es el de Shockley (en honor de William
Bradford Shockley), que permite estimar el comportamiento del diodo en la
mayoría de las aplicaciones. La ecuación que liga la intensidad de corriente
eléctrica y la diferencia de potencial es:
Dónde:

I es la intensidad de la corriente que atraviesa el diodo y VD la diferencia de
tensión entre sus extremos.

IS es la corriente de saturación.

q es la carga del electrón.

T es la temperatura absoluta de la unión.

k es la constante de Boltzmann.

n es el coeficiente de emisión, que depende del proceso de fabricación del
diodo y suele adoptar valores entre 1 (para el germanio) y
aproximadamente 2 (para el silicio).

El
término es la tensión debida a la
temperatura, del orden de 26 mV a temperatura ambiente (300 K o 27 °C).
Con objeto de evitar el uso de exponenciales (a pesar de ser uno de los modelos
más sencillos), en ocasiones se emplean modelos más simples aún, que
modelizan las zonas de funcionamiento del diodo mediante tramos rectos; son los
llamados modelos de continua o de Ram-señal El más simple de todos es el
diodo ideal

4 Tipo de Diodo Semiconductor
Existen varios tipos de diodos, que pueden diferir en su aspecto físico, impurezas,
uso de electrodos, que tienen características eléctricas particulares usados para
una aplicación especial en un circuito. El funcionamiento de estos diodos es
fundamentado por principios de la mecánica cuántica y teoría de bandas.
-
Diodo Zener
Un diodo Zener, es un diodo semiconductor diseñado especialmente para
trabajar en inversa. En estos diodos, muy dopados, cuando la tensión en
polarización inversa alcanza el valor de la tensión de ruptura (o zener), el
propio campo eléctrico de la unión pn es capaz de arrancar electrones de la
banda de valencia permitiendo la conducción sin apenas variación de la
tensión. De este modo la tensión del
diodo, que sufrirá tan solo pequeñas
variaciones con el incremento de la
corriente eléctrica debido a la resistencia
interna (del orden de una décima de
voltio) puede emplearse como tensión de
referencia, típicamente en circuitos estabilizadores o reguladores de
tensión.
-
Diodo de Avalancha:
Un diodo avalancha, es un diodo semiconductor diseñado especialmente
para trabajar en inversa. En estos diodos, poco dopados, cuando la tensión
en polarización inversa alcanza el valor de la tensión de ruptura, los
electrones que han saltado a la banda de conducción por efecto de la
temperatura se aceleran debido al campo eléctrico incrementando su
energía cinética, de forma que al colisionar con electrones de valencia los
liberan; éstos a su vez, se aceleran y colisionan con otros electrones de
valencia liberándolos también, produciéndose una avalancha de electrones
cuyo efecto es incrementar la corriente conducida por el diodo sin apenas
incremento de la tensión.
La aplicación típica de estos diodos es la protección de circuitos
electrónicos contra sobretensiones. El diodo se conecta en inversa a tierra,
de modo que mientras la tensión se mantenga por debajo de la tensión de
ruptura sólo será atravesado por la corriente inversa de saturación, muy
pequeña, por lo que la interferencia con el resto del circuito será mínima; a
efectos prácticos, es como si el diodo no existiera. Al incrementarse la
tensión del circuito por encima del valor de ruptura, el diodo comienza a
conducir desviando el exceso de corriente a tierra evitando daños en los
componentes del circuito.
-
LED
Un diodo LED, acrónimo inglés de Light Emitting Diode (diodo emisor de
luz), es un dispositivo semiconductor que emite luz monocromática cuando
se polariza en directa y es atravesado por la corriente eléctrica. El color
depende del material semiconductor empleado en la construcción del diodo
y puede variar desde el ultravioleta, pasando por todo el espectro de luz
visible, hasta el infrarrojo, éstos últimos reciben la denominación de diodos
IRED (Infra-Red Emitting Diode).
El dispositivo semiconductor está
comúnmente encapsulado en una cubierta
de plástico de mayor resistencia que las de
cristal que usualmente se emplean en las
bombillas. Aunque el plástico puede estar
coloreado es sólo por razones estéticas ya
que ello no influye en el color de la luz
emitida. Usualmente la cubierta tiene una cara plana que indica el cátodo
que además es más corto que el ánodo (ver foto).
Al contrario que las lámparas incandescentes que pueden alimentarse con
corriente alterna o continua, el diodo LED funciona de forma continua sólo
con ésta última ya que únicamente conduce la electricidad cuando se
polariza en directa al igual que los diodos pn convencionales, de modo que
si se alimenta con corriente alterna el diodo parpadeará al iluminarse tan
sólo la mitad del ciclo
-
Diodo Varicap
-
Fotodiodo
El fotodiodo es un dispositivo de unión pn que opera con polarización en
inversa. El fotodiodo tiene una pequeña ventana transparente que permite
que la luz incida en la unión pn, o sea que sólo funciona en presencia de la
luz.
Cuando está polarizado en inversa, un diodo rectificador tiene una corriente
de fuga inversa muy pequeña. Lo mismo es cierto para el fotodiodo; un
fotodiodo difiere de un diodo rectificador en que la corriente en inversa
crece con intensidad luminosa en la unión pn. Cuando no hay luz incidente,
la corriente en inversa es casi despreciable y se denomina corriente
obscura.
-
Diodo Schottky
El diodo Schottky es un dispositivo semiconductor constituido por una unión
metal-semiconductor (barrera Schottky) que proporciona conmutaciones
muy rápidas y bajas tensiones umbral.
La alta velocidad de conmutación permite rectificar señales de hasta
300MHz y eliminar excesos de corriente en circuitos de alta intensidad. A
diferencia de los diodos convencionales de silicio que tienen una tensión
umbral —valor de la tensión en directa a partir de la cual el diodo
conduce— de 0,6 V, los diodos Schottky tienen una tensión umbral de
aproximadamente 0,2 V, empleándose, por ejemplo, como protección de
descarga de células solares con baterías de plomo ácido.
-
Diodo Túnel
Los diodos de efecto túnel. Son dispositivos muy versátiles que pueden
operar como detectores, amplificadores y osciladores. Poseen una región
de juntura extremadamente delgada que permite a los portadores cruzar
con muy bajos voltajes de polarización directa y tienen una resistencia
negativa, esto es, la corriente disminuye a medida que aumenta el voltaje
aplicado.
-
Diodo Láser
Un diodo láser es dispositivo semiconductor
similar a los LED pero que bajo las
condiciones adecuadas emite luz láser. A
veces se los denomina diodos láser de
inyección, o por sus siglas inglesas LD o ILD.
En los diodos láser, el cristal semiconductor tiene la forma de una lámina
delgada lográndose así una unión p-n de grandes dimensiones, con las
caras exteriores perfectamente paralelas. Los fotones emitidos en la
dirección adecuada se reflejarán repetidamente en dichas caras
estimulando a su vez la emisión de más fotones, hasta que el diodo
comienza a emitir luz láser.
-
Diodo de Silicio
Suelen tener un tamaño milimétrico y, alineados, constituyen detectores
multicanal que permiten obtener espectros en milisegundos. Son menos
sensibles que los fotomultiplicadores. Es un semiconductor de tipo p (con
huecos) en contacto con un semiconductor de tipo n (electrones). La
radiación comunica la energía para liberar los electrones que se desplazan
hacia los huecos, estableciendo una corriente eléctrica proporcional a la
potencia radiante.

-
5 Aplicaciones del Diodo
Rectificador de media onda: Circuito
empleado para eliminar la parte negativa de
una señal de corriente alterna de entrada
(Vi) convirtiéndola en corriente continua de
salida (Vo). Es el circuito más sencillo que puede construirse con un diodo.
-
Rectificador de media onda completa: Circuito electrónico empleado para
convertir una señal de corriente alterna de entrada (Vi) en corriente
continua de salida (Vo). A diferencia del rectificado de media onda ya que
este genera una señal de corriente pulsante y en este caso, la parte
negativa de la señal se convierte en positiva. Existen dos alternativas, bien
empleando dos diodos o empleando cuatro (puente de diodos).
-
Filtro de condesado: Son circuitos eléctrico con diodos empleados para
filtrar una señal eléctrica, es decir, transformar la corriente alterna en
corriente continua. El circuito es el mismo que el empleado en la
rectificación añadiendo un condensador, por lo que al igual que existen
rectificadores de media onda y de onda completa, existen filtros de
condensador de media y onda completa.
-
Estabilizador Zener: Los diodos Zener mantienen la tensión en inversa
prácticamente constante en un amplio rango de intensidades, por ello, este
tipo de diodos se emplean en circuitos estabilizadores o reguladores de la
tensión tal
-
Circuito Recortador: Los dos dispositivos básicos para construir un circuito
recortador son diodos y resistencias, ya sea utilizando diodos Zener junto
con un Amplificador Operacional o de lo contrario un par de resistencias
colocadas en paralelo a un simple diodo rectificador.
-
Multiplicador
-
Circuito Fijador
-
Integrador y diferenciador de Rc
B. Transistor
El transistor es un dispositivo electrónico semiconductor utilizado para producir
una señal de salida en respuesta a otra señal de entrada. Cumple funciones de
amplificador, oscilador, conmutador o rectificador. Actualmente se encuentran
prácticamente en todos los aparatos electrónicos de uso diario: radios, televisores,
reproductores de audio y video, relojes de cuarzo, computadoras, lámparas
fluorescentes, tomógrafos, teléfonos celulares, etc.

1 Historia
El transistor es un dispositivo que cuenta con tres terminales. La construcción
de los primeros transistores respondía a una necesidad técnica: hacer
llamadas telefónicas a larga distancia. Es por esto que los descubridores de
esta nueva tecnología trabajaban para la American Telephone and Telegraph
Corporation (AT&T), fundada por Alexander Graham Bell y conocida
inicialmente como la Bell Telephone Company. Lo que se buscaba generar era
un conmutador en estado sólido que pueda utilizarse en telefonía y así
reemplazar tanto a los sistemas de barras como a los relés. Luego se
contempló la posibilidad de obtener el reemplazo por medio de la válvula de
vacío.
Después de finalizada la Segunda Guerra Mundial el director del Bell Labs
Mervin Kelly buscó un grupo de científicos que dieran con la solución a los
problemas que causaba el tubo de vacío y tenía algo en mente para
reemplazarlo: los semiconductores.
El director del nuevo equipo de investigadores fue William Shockley, un
visionario capaz de ver la importancia de los transistores antes que nadie,
Walter Brattain, un físico experimental capaz de construir y reparar
prácticamente cualquier cosa y John Bardeen, capaz de ir más allá en la
comprensión de los fenómenos aparentemente complejos y exponerlos de la
manera más sencilla posible.
En 1947, durante el conocido como "Mes
milagroso" entre el 17 de noviembre y el 23
de diciembre realizaron infinidad de pruebas
para mejorar el dispositivo hasta llegar a
conseguir su objetivo: el primer transistor de
contacto puntual, hecho con dos púas de
metal (oro) que se presionan sobre la
superficie de material semiconductor
(germanio) en posiciones muy próximas
entre sí.
William Shockley, Walter Brattain y John Bardeen fueron galardonados con el
Premio Nobel de Física en 1956.
El impacto de los transistores fue enorme, transformaron el mundo de la
electrónica y el diseño de computadoras al permitir disminuir infinitamente su
tamaño al librarse de los voluminosos y frágiles triodos de vacío. Y así
comenzaron a disminuir las tallas de nuestros dispositivos electrónicos. Hasta
hoy día, en el que empieza a ser común un móvil con el tamaño de un reloj.

1 Tipos de transistor
Existen varios tipos que dependen de su proceso de construcción y de las
aplicaciones a las que se destinan.

1.1Transistor de contacto puntual
Llamado también «transistor de punta de contacto», fue el primer
transistor capaz de obtener ganancia, inventado en 1947 por John
Bardeen y Walter Brattain. Consta de una base de germanio,
semiconductor para entonces mejor conocido que la combinación
cobre-óxido de cobre, sobre la que se apoyan, muy juntas, dos puntas
metálicas que constituyen el emisor y el colector. La corriente de base
es capaz de modular la resistencia que se «ve» en el colector, de ahí el
nombre de transfer resistor. Se basa en efectos de superficie, poco
conocidos en su día. Es difícil de fabricar (las puntas se ajustaban a
mano), frágil (un golpe podía desplazar las puntas) y ruidoso. Sin
embargo convivió con el transistor de unión (W. Shockley, 1948) debido
a su mayor ancho de banda. En la actualidad ha desaparecido.

1.2 Transistor de unión bipolar
El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o
sus siglas BJT) GART es un dispositivo electrónico de estado sólido
consistente en dos uniones PN muy cercanas entre sí, que permite
controlar el paso de la corriente a través de sus terminales. La
denominación de bipolar se debe a que la conducción tiene lugar
gracias al desplazamiento de portadores de dos polaridades (huecos
positivos y electrones negativos), y son de gran utilidad en gran número
de aplicaciones; pero tienen ciertos inconvenientes, entre ellos su
impedancia de entrada bastante baja.
Los transistores bipolares son los transistores más conocidos y se usan
generalmente en electrónica analógica aunque también en algunas
aplicaciones de electrónica digital, como la tecnología TTL o BICMOS.
El transistor de unión bipolar, se fabrica básicamente sobre un
monocristal de Germanio, Silicio o Arseniuro de galio, que tienen
cualidades de semiconductores, estado intermedio entre conductores
como los metales y los aislantes como el diamante. Sobre el sustrato de
cristal, se contaminan en forma muy controlada tres zonas, dos de las
cuales son del mismo tipo, NPN o PNP, quedando formadas dos
uniones NP.
La zona N con elementos donantes de electrones (cargas negativas) y
la zona P de aceptadores o «huecos» (cargas positivas). Normalmente
se utilizan como elementos aceptadores P al Indio (In), Aluminio (Al) o
Galio (Ga) y donantes N al Arsénico (As) o Fósforo (P).
La configuración de uniones PN, dan como resultado transistores PNP
o NPN, donde la letra intermedia siempre corresponde a la
característica de la base, y las otras dos al emisor y al colector que, si
bien son del mismo tipo y de signo contrario a la base, tienen diferente
contaminación entre ellas (por lo general, el emisor está mucho más
contaminado que el colector).
El mecanismo que representa el comportamiento semiconductor
dependerá de dichas contaminaciones, de la geometría asociada y del
tipo de tecnología de contaminación (difusión gaseosa, epitaxial, etc.) y
del comportamiento cuántico de la unión.

1.3 Transistor de efecto de campo
El transistor de efecto de campo de unión (Field-Effect Transistor o FET,
en inglés), fue el primer transistor de efecto de campo en la práctica. Lo
forma una barra de material semiconductor de silicio de tipo N o P. En
los terminales de la barra se establece un contacto óhmico, tenemos así
un transistor de efecto de campo tipo N de la forma más básica. Si se
difunden dos regiones P en una barra de material N y se conectan
externamente entre sí, se producirá una puerta. A uno de estos
contactos le llamaremos surtidor y al otro drenador. Aplicando tensión
positiva entre el drenador y el surtidor y conectando la puerta al surtidor,
estableceremos una corriente, a la que llamaremos corriente de
drenador con polarización cero. Con un potencial negativo de puerta al
que llamamos tensión de estrangulamiento, cesa la conducción en el
canal.
Se empezaron a construir en la década de los 60. Existen tres tipos de
transistores de efecto de campo los JFET (transistor de efecto de
campo de unión) construido mediante una unión PN, transistor de efecto
de campo de compuerta aislada (IGFET) en el que la compuerta se
aísla del canal mediante un dieléctrico y los MOSFET. Los transistores
MOS respecto de los bipolares ocupan menos espacio por lo que su
aplicación más frecuente la encontramos en los circuitos integrados.
Es un componente de tres terminales que se denominan: Puerta (G,
Gate), Fuente (S, Source), y Drenaje (D, Drain). Según su construcción
pueden ser de canal P o de canal N.

1.4 Fototransistor
Los fototransistores son sensibles a la radiación electromagnética en
frecuencias cercanas a la de la luz visible; debido a esto su flujo de
corriente puede ser regulado por medio de la luz incidente. La luz incide
sobre la región de base, generando portadores en ella. Esta carga de
base lleva el transistor al estado de conducción. El fototransistor es más
sensible que el fotodiodo por el
efecto de ganancia propio del
transistor.
Un fototransistor es igual a un
transistor común, con la diferencia
que el primero puede trabajar de 2
formas:
1. Como transistor normal con la corriente de base Ib (modo común).
2. Como fototransistor, cuando la luz que incide en este elemento hace las
veces de corriente de base. Ip (modo de iluminación).
Puede utilizarse de las dos en formas simultáneamente, aunque el
fototransistor se utiliza principalmente con el pin de la base sin conectar.
El circuito equivalente de un fototransistor, es un transistor común con
un fotodiodo conectado entre la base y el colector, con el cátodo del
fotodiodo conectado al colector del transistor y el ánodo a la base.
El fototransistor es muy utilizado para aplicaciones donde la detección
de iluminación es muy importante.

3 Transistores y electrónica de potencia
Con el desarrollo tecnológico y evolución de la electrónica, la
capacidad de los dispositivos semiconductores para soportar cada
vez mayores niveles de tensión y corriente ha permitido su uso en
aplicaciones de potencia. Es así como actualmente los transistores
son empleados en conversores estáticos de potencia, controles para
motores y llaves de alta potencia (principalmente inversores),
aunque su principal uso está basado en la amplificación de corriente
dentro de un circuito cerrado.

4 El transistor bipolar como amplificador
La necesidad de amplificar las señales es casi una necesidad
constante en la mayoría de los sistemas electrónicos. En este
proceso, los transistores desarrollan un papel fundamental, pues
bajo ciertas condiciones, pueden entregar a una determinada carga
una potencia de señal mayor de la que absorben.
El análisis de un amplificador mediante su asimilación a un
cuadrípolo (red de dos puertas), resulta interesante ya que permite
caracterizarlo mediante una serie de parámetros relativamente
simples que nos proporcionan información sobre su comportamiento.
En los amplificadores, gracias a los transistores se consigue la
intensidad de los sonidos y de las señales en general. El
amplificador posee una entrada por donde se introduce la señal débil
y otra por donde se alimenta con C.C. La señal de salida se ve
aumentada gracias a la aportación de esta alimentación, siguiendo
las mismas variaciones de onda que la de entrada.
La señal de entrada, de bajo nivel, del orden de unos pocos
milivotios, la aportan dispositivos como el micrófono (transforman
ondas sonoras en señales eléctricas que siguen las mismas
variaciones que las primeras), sensores térmicos, luminosos, etc.
Cuando un amplificador realiza la función de elevar la señal que ha
sido aplicada a su entrada, se dice que ha producido una
determinada ganancia. Se puede decir que la ganancia de un
amplificador es la relación que existe entre el valor de la señal
obtenida a la salida y el de la entrada. Dependiendo de la magnitud
eléctrica que estemos tratando, se pueden observar tres tipos de
ganancia: ganancia en tensión, ganancia en corriente y ganancia en
potencia.
En cuanto a la frecuencia, los amplificadores dependen de esta, de
forma que lo que es válido para un margen de frecuencias no tiene
porqué serlo necesariamente para otro. De todas formas, en todo
amplificador existe un margen de frecuencias en el que la ganancia
permanece prácticamente constante (banda de paso del
amplificador). El margen dinámico de un amplificador es la mayor
variación simétrica de la señal que es capaz de presentar sin
distorsión a la salida; normalmente expresado en voltios de pico (Vp)
o Voltios pico-pico (Vpp).

4.1 Emisor común
La señal se aplica a la base del transistor y se extrae por el colector. El emisor se
conecta a las masas tanto de la señal de entrada como a la de salida. En esta
configuración se tiene ganancia tanto de tensión como de corriente.
La configuración de emisor común es la más usada. En él, el transistor actúa
como un amplificador de la corriente y de la tensión. Aparte de los efectos de
amplificación, también invierte la tensión de señal, es decir, si la tensión es
tendente a positiva en la base pasa a ser tendente a negativa en el colector; pero,
como estos efectos se producen con la corriente alterna.
Para estudiar las propiedades de este tipo de configuración vamos a basarnos en
un transistor tipo P-N-P. Tenemos la unión base-emisor, JE, polarizada
directamente y la unión emisor-colector, JC, inversamente polarizada.
Aplicamos una tensión a la base y otra al colector y tenemos dos resistencias, RB
conectada a la base y RC conectada al colector.
El valor de la corriente de base va a depender del valor de la resistencia RB, la
corriente que circula por el colector, IC, depende de la corriente de base, IB, como
hemos visto con la formula IC = b. IB; IC es mucho más grande que IB y ese
aumento viene dado por b, que es un parámetro característico del transistor.
Al pasar la corriente por RC se va a producir una caída de potencial; luego, la
tensión que obtengamos a la salida, también va a depender del valor de esta
resistencia. Podemos colocar una resistencia en el emisor, que llamaremos RE,
que va a perjudicar mucho la amplificación de tensión, pero va a hacer que el
transistor sea mucho más estable y no le afecten los cambios de la temperatura.
Aumentando o disminuyendo los valores de las tres resistencias podemos
conseguir corrientes y tensiones diferentes en los tres terminales. Por ejemplo, si
aumentamos la resistencia de base el valor de la corriente IB será menor, lo que
implicará que IC también sea menor, y al pasar una corriente de colector menor a
través de RC, el potencial que se obtendrá a la salida será mayor; pero si
disminuimos RB aumenta IB y con ella la corriente de colector, y la tensión de
colector disminuirá.
Disminuyendo mucho la resistencia de base podemos llegar a un punto en el que
pasemos de la zona de activa a la de saturación, es decir, que la unión colectorbase, que está inversamente polarizada en activa, pase a estar directamente
polarizada y, por lo tanto, en saturación. Esto se produce porque IB aumenta y, en
consecuencia, IC también aumenta.
Si un circuito está trabajando en zona activa, el transistor se comporta de forma
lineal. Es decir, que a iguales variaciones de la corriente de base, IB, se producen
iguales variaciones de la corriente de colector, IC. El primer punto en el cual al
aumentar IB ya no aumenta IC pertenece a la zona de saturación. También
podemos modificar los valores de la corriente de base, de colector y de la tensión
de salida jugando con la tensión de entrada o con la resistencia de colector.
Una característica muy importante dentro de un circuito es determinar su punto de
funcionamiento. La corriente continua, y la tensión en cada terminal del transistor
determinan el punto de funcionamiento de un circuito. Este punto de
funcionamiento se encuentra situado en la recta de carga.
Para saber cuál es el punto de funcionamiento de un transistor tenemos que
determinar el valor de VC, potencial de colector, VB potencial de base, e IC
corriente de colector cuando el potencial trabaja en zona activa. Para
determinarlas podemos usar las curvas características que representan a un
transistor, o también podemos hallar el punto matemáticamente, usando dos
fórmulas que ya conocemos, la ley de Omh V = I. R y la igualdad IC = b. IB.
Combinando correctamente ambas fórmulas hallaríamos los datos que
necesitamos para obtener el punto de funcionamiento.

4.2 Base común
La señal se aplica al emisor del transistor y se extrae
por el colector. La base se conecta a las masas tanto
de la señal de entrada como a la de salida. En esta
configuración se tiene ganancia sólo de tensión. La
impedancia de entrada es baja y la ganancia de corriente algo
menor que uno, debido a que parte de la corriente de emisor
sale por la base. Si añadimos una resistencia de emisor, que
puede ser la propia impedancia de salida de la fuente de señal,
un análisis similar al realizado en el caso de emisor común, nos
da la ganancia aproximada siguiente:
La base común se suele utilizar para adaptar fuentes de señal
de baja impedancia de salida como, por ejemplo, micrófonos
dinámicos.

4.3 Colector común
Otro tipo de configuración básica de un transistor es la de colector común. A esta
configuración se la suele llamar seguidor de emisor. Con este tipo de circuitos no
vamos a conseguir una amplificación de tensión, pero son muy buenos
amplificadores de la corriente y de ahí viene su utilidad.
La señal se aplica a la base del transistor y se extrae por el emisor. El colector se
conecta a las masas tanto de la señal de entrada como a la de salida. En esta
configuración se tiene ganancia de corriente, pero no de tensión que es
ligeramente inferior a la unidad. La impedancia de entrada es alta,
aproximadamente β+1 veces la impedancia de carga. Además, la impedancia de
salida es baja, aproximadamente β veces menor que la de la fuente de señal.
Este circuito también se llama seguidor de emisor, nombre que le viene porque el
emisor sigue a la base, lo que quiere decir que la tensión que le apliquemos a la
base va a ser reproducida por el emisor. Por ejemplo, si la base se encuentra a
cero voltios, el emisor también estará a cero voltios y si la tensión de base es de
seis voltios el emisor estará a la misma tensión. Para que esto suceda así el
circuito tiene que estar funcionando en la zona activa.
Este tipo de circuitos tiene un comportamiento muy bueno frente a las variaciones
de temperatura y es debido a que tiene conectada una resistencia, RE. El
problema que pueden tener este tipo de circuitos es que disipan mucha potencia.
Como en esta configuración se produce una ampliación de corriente, la corriente
de salida es muy grande y al trabajar siempre en la región activa podemos disipar
mucha potencia; este efecto se corrige poniendo una resistencia entre el colector y
la fuente de alimentación.
La característica más importante de esta configuración
es que ofrece una "alta impedancia" (o resistencia) de
entrada y una baja impedancia de salida. La corriente
de entrada va a ser muy pequeña, mientras que la de
salida puede llegar a ser muy grande.
Esta característica influye totalmente en las
aplicaciones que damos a este circuito: se usa como
adaptador de impedancias, es decir, cuando queramos
obtener una baja impedancia de salida.

5 El transistor bipolar frente a la válvula termoiónica
Antes de la aparición del transistor los ingenieros utilizaban elementos
activos llamados válvulas termoiónicas. Las válvulas tienen
características eléctricas similares a la de los transistores de efecto
campo (FET): la corriente que los atraviesa depende de la tensión en el
borne de comando, llamado rejilla. Las razones por las que el transistor
reemplazó a la válvula termoiónica son varias:

Las válvulas necesitan tensiones muy altas, del orden de las
centenas de voltios, que son peligrosas para el ser humano.

Las válvulas consumen mucha energía, lo que las vuelve
particularmente poco útiles para el uso con baterías.

Probablemente, uno de los problemas más importantes haya sido
el peso. El chasis necesario para alojar las válvulas y los
transformadores requeridos para su funcionamiento sumaban un
peso importante, que iba desde algunos kilos a decenas de kilos.

El tiempo medio entre fallas de las válvulas termoiónicas es muy
corto comparado con el de los transistores, sobre todo a causa
del calor generado.

Las válvulas presentan una cierta demora en comenzar a
funcionar, ya que necesitan estar calientes para establecer la
conducción.

El transistor es intrínsecamente insensible al efecto microfónico,
muy frecuente en las válvulas.

Los transistores son más pequeños que las válvulas, incluso que
los nuvistores. Aunque existe unanimidad sobre este punto,
conviene hacer una salvedad: en el caso de dispositivos de
potencia, estos deben llevar un disipador, de modo que el
tamaño que se ha de considerar es el del dispositivo (válvula o
transistor) más el del disipador. Como las válvulas pueden
funcionar a temperaturas más elevadas, la eficiencia del
disipador es mayor en ellas que en los transistores, con lo que
basta un disipador mucho más pequeño.

Los transistores trabajan con impedancias bajas, o sea con
tensiones reducidas y corrientes altas; mientras que las válvulas
presentan impedancias elevadas y por lo tanto trabajan con altas
tensiones y pequeñas corrientes.

Finalmente, el costo de los transistores no solamente era muy
inferior, sino que contaba con la promesa de que continuaría
bajando (como de hecho ocurrió) con suficiente investigación y
desarrollo.
Como ejemplo de todos estos inconvenientes se puede citar a la
primera computadora digital, llamada ENIAC. Era un equipo que
pesaba más de treinta toneladas y consumía 200 kilovatios,
suficientes para alimentar una pequeña ciudad. Tenía alrededor de
18.000 válvulas, de las cuales algunas se quemaban cada día,
necesitando una logística y una organización importantes.
Cuando el transistor bipolar fue inventado en 1947, fue considerado
una revolución. Pequeño, rápido, fiable, poco costoso, sobrio en sus
necesidades de energía, reemplazó progresivamente a la válvula
termoiónica durante la década de 1950, pero no del todo. En efecto,
durante los años 1960, algunos fabricantes siguieron utilizando
válvulas termoiónicas en equipos de radio de gama alta, como
Collins y Drake; luego el transistor desplazó a la válvula de los
transmisores pero no del todo de los amplificadores de
radiofrecuencia. Otros fabricantes, de equipo de audio esta vez,
como Fender, siguieron utilizando válvulas en amplificadores de
audio para guitarras. Las razones de la supervivencia de las válvulas
termoiónicas son varias:

El transistor no tiene las características de linealidad a alta
potencia de la válvula termoiónica, por lo que no pudo
reemplazarla en los amplificadores de transmisión de radio
profesionales y de radioaficionados sino hasta varios años
después.

Los armónicos introducidos por la no linealidad de las
válvulas resultan agradables al oído humano, por lo que son
preferidos por los audiófilos.

El transistor es muy sensible a los efectos electromagnéticos
de las explosiones nucleares, por lo que se siguieron
utilizando válvulas termoiónicas en algunos sistemas de
control-comando de aviones caza de fabricación soviética.

Las válvulas son capaces de manejar potencias muy grandes,
impensables para los transistores en sus comienzos; sin
embargo a través de los años se desarrollaron etapas de
potencia con múltiples transistores en paralelo capaces de
conseguirlo.
C- Chip o Circuito Integrado

1 Historia
El
primer
circuito
integrado
fue
desarrollado en 1959 por el ingeniero Jack
Kilby (1923-2005) pocos meses después
de haber sido contratado por la firma
Texas Instruments. Lo creó a partir de una
lámina
de
material
semiconductor,
construyendo todas las piezas del circuito
eléctrico sobre esta. Con este invento se consiguió
reducir mucho el tamaño de los circuitos eléctricos que
antes era muy grande. Se trataba de un dispositivo de
germanio que integraba seis transistores en una misma
base semiconductora para formar un oscilador de
rotación de fase.
Los circuitos integrados han hecho posible la fabricación de los microordenadores
y las microcomputadora. Sin ellos, los circuitos individuales y sus componentes
ocuparían demasiado espacio como para poder conseguir un diseño compacto.
En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la enorme
contribución de su invento al desarrollo de la tecnología.
Al mismo tiempo que Jack Kilby, pero de forma independiente, Robert Noyce
desarrolló su propio circuito integrado, que patentó unos seis meses después.
Además resolvió algunos problemas prácticos que poseía el circuito de Kilby,
como el de la interconexión de todos los componentes; al simplificar la estructura
del chip mediante la adición del metal en una capa final y la eliminación de
algunas de las conexiones, el circuito integrado se hizo más adecuado para la
producción en masa. Además de ser uno de los pioneros del circuito integrado,
Robert Noyce también fue uno de los co-fundadores de Intel, uno de los mayores
fabricantes de circuitos integrados del mundo.
A partir de 1966 los Circuitos Integrados comenzaron a fabricarse por millones y
en la actualidad se considera una pieza esencial en los aparatos electrónicos.
También un circuito integrado puede contener desde miles hasta varios millones
de transistores en unos pocos milímetros cuadrados.
El desarrollo de los circuitos integrados fue posible gracias a descubrimientos
experimentales que demostraron que los semiconductores pueden realizar
algunas de las funciones de las válvulas de vacío.
Las válvulas de vacío, no es más que un componente electrónico utilizado para
amplificar, conmutar, o modificar una señal eléctrica mediante el control del
movimiento de los electrones en un espacio "vacío" a muy baja presión, o en
presencia de gases especialmente seleccionados.
La integración de grandes cantidades de diminutos transistores en pequeños chips
fue un enorme avance sobre el ensamblaje manual de los tubos de vacío y en la
fabricación de circuitos electrónicos utilizando componentes discretos.
La capacidad de producción masiva de circuitos integrados, su confiabilidad y la
facilidad de agregarles complejidad, llevó a su estandarización, reemplazando
diseños que utilizaban transistores discretos, y que pronto dejaron obsoletas a las
válvulas o tubos de vacío.

Los
2 Avances en los circuitos integrados
avances
que
fundamentalmente,
hicieron
los
posible
desarrollos
en
el
circuito
la
integrado
fabricación
de
han
sido,
dispositivos
semiconductores a mediados del siglo XX y los descubrimientos experimentales
que mostraron que estos dispositivos podían reemplazar las funciones de las
válvulas o tubos de vacío, que se volvieron rápidamente obsoletos al no poder
competir con el pequeño tamaño, el consumo de energía moderado, los tiempos
de conmutación mínimos, la confiabilidad, la capacidad de producción en masa y
la versatilidad de los CI.
Entre los circuitos integrados más complejos y avanzados se encuentran los
microprocesadores, que controlan numerosos aparatos, desde teléfonos móviles y
hornos microondas hasta computadoras. Los chips de memorias digitales son otra
familia de circuitos integrados, de importancia crucial para la moderna sociedad de
la información. Mientras que el costo de diseñar y desarrollar un circuito integrado
complejo es bastante alto, cuando se reparte entre millones de unidades de
producción, el costo individual de los CI por lo general se reduce al mínimo. La
eficiencia de los CI es alta debido a que el pequeño tamaño de los chips permite
cortas conexiones que posibilitan la utilización de lógica de bajo consumo y con
altas velocidades de conmutación.
Los circuitos integrados se encuentran en todos los aparatos electrónicos
modernos, como relojes de pulsera, automóviles, televisores, reproductores de
CD, reproductores de MP3, teléfonos móviles, computadoras, equipos médicos,
etc.
Hoy en día los circuitos integrados han evolucionando: se fabrican en tamaños
cada vez más pequeños, con mejores características y prestaciones, mejoran su
eficiencia y su eficacia, y se permite así que mayor cantidad de elementos sean
empaquetados (integrados) en un mismo chip.
Al tiempo que el tamaño se reduce, otras
cualidades también mejoran (el costo y el
consumo de energía disminuyen, y a la vez
que aumenta el rendimiento). Aunque estas
ganancias son aparentemente para el usuario
final, existe una feroz competencia entre los
fabricantes para utilizar geometrías cada vez
más delgadas.

3 Popularidad
Medio siglo después de iniciado su desarrollo los circuitos integrados se han
vuelto casi omnipresentes. La informática, las comunicaciones, la manufactura y
los sistemas de transporte, incluyendo Internet, todos dependen de la existencia
de los circuitos integrados. De hecho, muchos estudiosos piensan que la
revolución digital causada por los circuitos integrados es uno de los sucesos más
significativos de la historia de la humanidad.
La creciente popularidad de los circuitos integrados digitales se debe a la
disponibilidad de circuitos in-tegrados (CI) a precios bajos. Los fabricantes han
desarrollado muchas familias de CI digitales (grupos que pueden ser usados para
la construcción de un sistema digital). Se dice que los CI de una familia son
compatibles y es fácil realizar una conexión entre ellos.

4 Tipos
Existen al menos tres tipos de circuitos integrados:

Circuitos monolíticos: Están fabricados en un solo mono cristal,
habitualmente de silicio, pero también existen en germanio, arseniuro de
galio, silicio-germanio, etc.

Circuitos híbridos de capa fina: Son muy similares a los circuitos
monolíticos, pero, además, contienen componentes difíciles de fabricar con
tecnología monolítica. Muchos conversores A/D y conversores D/A se
fabricaron en tecnología híbrida hasta que los progresos en la tecnología
permitieron fabricar resistores precisos.

Circuitos híbridos de capa gruesa: Se apartan
bastante de los circuitos monolíticos. De hecho
suelen contener circuitos monolíticos sin cápsula,
transistores, diodos, etc., sobre un sustrato
dieléctrico,
interconectados
con
pistas
conductoras. Los resistores se depositan por serigrafía y se ajustan
haciéndoles cortes con láser. Todo ello se encapsula, en cápsulas plásticas
o metálicas, dependiendo de la disipación de energía calórica requerida. En
muchos casos, la cápsula no está "moldeada", sino que simplemente se
cubre el circuito con una resina epoxi para protegerlo.
En el mercado se encuentran circuitos híbridos para aplicaciones en módulos de
radio frecuencia (RF), fuentes de alimentación, circuitos de encendido para
automóvil, etc.

5 Clasificación
Se puede hacer varios tipos de clasificaciones según el criterio que se use. Una de
estas clasificaciones está basada en el tipo de transistores que se emplee. Así, se
puede tener un CI bipolar, si se fabrica a base de transistores bipolares, NPN y
PNP, y circuitos integrados MOS, si lo que se usan son transistores de efecto
campo más conocidos como MOS. Según la manera de fabricar un CI se puede
encontrar circuitos integrados monolíticos, en los cuales se forman todos los
componentes a la vez en el substrato semiconductor.
Atendiendo al nivel de integración -número de componentes- los circuitos
integrados se pueden clasificar en:

SSI (Small Scale Integration) pequeño nivel: de 10 a 100 transistores

MSI (Medium Scale Integration) medio: 101 a 1.000 transistores

LSI (Large Scale Integration) grande: 1.001 a 10.000 transistores

VLSI (Very Large Scale Integration) muy grande: 10.001 a 100.000
transistores

ULSI (Ultra Large Scale Integration) ultra grande: 100.001 a 1.000.000
transistores

GLSI (Giga Large Scale Integration) giga grande: más de un millón de
transistores
En cuanto a las funciones integradas, los circuitos se clasifican en dos
grandes grupos:
Circuitos integrados analógicos
Los circuitos integrados analógicos más comúnmente constituyen una parte de las
fuentes de alimentación, los instrumentos y las comunicaciones. En estas
aplicaciones, los circuitos integrados analógicos amplifican, filtran y modifican
señales eléctricas. En los teléfonos celulares, amplifican y filtran la señal de
entrada de la antena del teléfono. El sonido
codificado en la señal tiene un nivel de baja
amplitud, después de que el circuito filtra la señal
sonora de la señal de entrada, el circuito amplifica
la señal de sonido y lo envía al altavoz de tu
teléfono celular, lo que le permite escuchar la voz
en el otro extremo.
Pueden constar desde simples transistores encapsulados juntos, sin unión entre
ellos, hasta circuitos completos y funcionales, como amplificadores, osciladores o
incluso receptores de radio completos.
Circuitos integrados digitales
Los circuitos integrados digitales se utilizan principalmente para construir sistemas
informáticos, también se producen en los teléfonos celulares, equipos de música y
televisores. Los circuitos integrados digitales incluyen microprocesadores, micros
controladores y circuitos lógicos. Realizan cálculos matemáticos, dirigen el flujo de
datos y toman decisiones basadas en principios lógicos booleanos. El sistema
booleano utilizado se centra en dos números: 0 y 1. Por otro lado, el sistema de
base 10, el sistema de numeración que aprendes en la escuela primaria, se basa
en 10 números: 0, 1, 3, 4, 5, 6, 7, 8 y 9.
Pueden ser desde básicas puertas lógicas
(AND, OR, NOT) hasta los más complicados
microprocesadores o micro controladores.
Algunos son diseñados y fabricados para
cumplir una función específica dentro de un
sistema mayor y más complejo.
En general, la fabricación de los CI es compleja ya que tienen una alta integración
de componentes en un espacio muy reducido, de forma que llegan a ser
microscópicos. Sin embargo, permiten grandes simplificaciones con respecto a los
antiguos circuitos, además de un montaje más eficaz y rápido.

6. Limitaciones de los circuitos integrados
Existen ciertos límites físicos y económicos al desarrollo de los circuitos
integrados. Básicamente, son barreras que se van alejando al mejorar la
tecnología, pero no desaparecen. Las principales son:
-
6.1. Disipación de potencia
Los circuitos eléctricos disipan potencia. Cuando el número de componentes
integrados en un volumen dado crece, las exigencias en cuanto a disipación de
esta potencia, también crecen, calentando el sustrato y degradando el
comportamiento del dispositivo. Además, en muchos casos es un sistema de
realimentación positiva, de modo que cuanto mayor sea la temperatura, más
corriente conduce, fenómeno que se suele llamar "embalamiento térmico" y, que si
no se evita, llega a destruir el dispositivo. Los amplificadores de audio y los
reguladores de tensión son proclives a este fenómeno, por lo que suelen
incorporar protecciones térmicas.
Los circuitos de potencia, evidentemente, son los que más energía deben disipar.
Para ello su cápsula contiene partes metálicas, en contacto con la parte inferior del
chip, que sirven de conducto térmico para transferir el calor del chip al disipador o
al ambiente. La reducción de resistividad térmica de este conducto, así como de
las nuevas cápsulas de compuestos de silicona, permiten mayores disipaciones
con cápsulas más pequeñas.
Los circuitos digitales resuelven el problema reduciendo la tensión de alimentación
y utilizando tecnologías de bajo consumo, como CMOS. Aun así en los circuitos
con más densidad de integración y elevadas velocidades, la disipación es uno de
los mayores problemas, llegándose a utilizar experimentalmente ciertos tipos de
criostatos. Precisamente la alta resistividad térmica del arseniuro de galio es su
talón de Aquiles para realizar circuitos digitales con él.
-
6.2. Capacidades y Autoinducciones parásitas
Este efecto se refiere principalmente a las conexiones
eléctricas entre el chip, la cápsula y el circuito donde va
montada, limitando su frecuencia de funcionamiento. Con
pastillas más pequeñas se reduce la capacidad y la
autoinducción de ellas. En los circuitos digitales excitadores de buses,
generadores de reloj, etc., es importante mantener la impedancia de las líneas y,
todavía más, en los circuitos de radio y de microondas.
-
6.3. Límites en los componentes
Los componentes disponibles para integrar tienen ciertas limitaciones, que difieren
de sus contrapartidas discretas.
Resistores. Son indeseables por necesitar una gran cantidad de superficie. Por
ello sólo se usan valores reducidos y en tecnologías MOS se eliminan casi
totalmente.
Condensadores. Sólo son posibles valores muy reducidos y a costa de mucha
superficie. Como ejemplo, en el amplificador operacional μA741, el condensador
de estabilización viene a ocupar un cuarto del chip.
Inductores. Se usan comúnmente en circuitos de radiofrecuencia, siendo híbridos
muchas veces. En general no se integran.
-
6.4. Densidad de integración
Durante el proceso de fabricación de los circuitos integrados se van acumulando
los defectos, de modo que cierto número de componentes del circuito final no
funcionan correctamente. Cuando el chip integra un número mayor de
componentes, estos componentes defectuosos disminuyen la proporción de chips
funcionales. Es por ello que en circuitos de memorias, por ejemplo, donde existen
millones de transistores, se fabrican más de los necesarios, de manera que se
puede variar la interconexión final para obtener la organización especificada.
D- Microprocesador:
El microprocesador es la parte de la
computadora diseñada para llevar acabo o
ejecutar los programas. Este viene siendo
el cerebro de la computadora, el motor, el
corazón de esta máquina. Este ejecuta
instrucciones que se le dan a la
computadora a muy bajo nivel haciendo
operaciones lógicas simples, como sumar,
restar, multiplicar y dividir. El
microprocesador, o simplemente el micro,
es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en
cuyo interior existen miles (o millones) de elementos llamados transistores, cuya
combinación permite realizar el trabajo que tenga encomendado el chip.

1 Historia de los microprocesadores
El microprocesador es uno de los logros más sobresalientes del siglo XX.
Esas son palabras atrevidas, y hace un cuarto de siglo tal afirmación habría
parecido absurda. Pero cada año, el microprocesador se acerca más al
centro de nuestras vidas, forjándose un sitio en el núcleo de una máquina
tras otra. Su presencia ha comenzado a cambiar la forma en que
percibimos el mundo e incluso a nosotros mismos. Cada vez se hace más
difícil pasar por alto el microprocesador como otro simple producto en una
larga línea de innovaciones tecnológicas.

1.1 La evolución del microprocesador
El microprocesador es un producto de la computadora y con tecnología
semiconductora. Se eslabona desde la mitad de los años 50's; estas tecnologías
se fusionaron a principios de los años 70`'s, produciendo el llamado
microprocesador.
La computadora digital hace cálculos bajo el control de un programa. La manera
general en que los cálculos se han hecho es llamada la arquitectura de la
computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda
también, porque el microprocesador es un circuito con transistores o microcircuito
LSI (grande escala de integración), para ser más preciso.
El mapa de la figura, mostrada al final de esta sección, muestra los sucesos
importantes de éstas dos tecnologías que se desarrollaron en las últimas cinco
décadas. Las dos tecnologías iniciaron su desarrollo desde la segunda guerra
mundial; en este tiempo los científicos desarrollaron computadoras especialmente
para uso militar. Después de la guerra, a mediados del año de 1940 la
computadora digital fue desarrollada para propósitos científicos y civiles.
La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes
progresos en el diseño de dispositivos físicos de Estado Sólido. En 1948 en los
laboratorios Bell crearon el Transistor.
En los años 50's, aparecen las primeras computadoras digitales de propósito
general. Éstas usaban tubos al vacío (bulbos) como componentes electrónicos
activos. Tarjetas o módulos de tubos al vacío fueron usados para construir
circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde
se almacena un bit). Ensamblando compuertas y flip-flops en módulos, los
científicos construyeron la computadora ( la lógica de control, circuitos de
memoria, etc.). Los bulbos también formaron parte de la construcción de máquinas
para la comunicación con las computadoras. Para el estudio de los circuitos
digitales, en la construcción de un circuito sumador simple se requiere de algunas
compuertas lógicas.
La construcción de una computadora digital requiere de muchos circuitos o
dispositivos electrónicos. El principal paso tomado en la computadora fue hacer
que el dato fuera almacenado en memoria como una forma de palabra digital. La
idea de almacenar programas fue muy importante.
A mediados de los años 60's se producen las familias de lógica digital, dispositivos
en escala SSI y MSI que corresponden a pequeña y mediana escala de
integración de componentes en los circuitos de fabricación. A finales de los años
60's y principios de los años 70's surgieron los LSI (gran escala de integración ).
La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito
integrado. Pero pocos circuitos LSI fueron producidos, los dispositivos de memoria
fueron un buen ejemplo.

1.2 Breve historia
Las primeras calculadoras electrónicas requerían de 75 a 100 circuitos integrados.
Después se dio un paso importante en la reducción de la arquitectura de la
computadora a un circuito integrado simple, resultando un circuito que fue llamado
el microprocesador.
El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló
originalmente para una calculadora, y resultaba revolucionario para su época.
Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía
realizar 60.000 operaciones por segundo. El
primer microprocesador de 8 bits fue el Intel
8008, desarrollado en 1979 para su empleo
en terminales informáticos. El Intel 8008
contenía 3.300 transistores. El primer microprocesador realmente diseñado para
uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500
transistores y podía ejecutar 200.000 instrucciones por segundo. Los
microprocesadores modernos tienen una capacidad y velocidad muchos mayores.
Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el
UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el
PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7
millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con
9,3 millones de transistores.
-
1971: El Intel 4004
-
1972: El Intel 8008
-
1974: El SC/MP
-
1974: El Intel 8080
-
1975: Motorola 6800
-
1976: El Z80
-
1978: Los Intel 8086 y 8088
-
1982: El Intel 80286
-
1985: El Intel 80386
-
1985: El VAX 78032
-
1989: El Intel 80486
-
1991: El AMD AMx86
-
1993: PowerPC 601
-
1993: El Intel Pentium
-
1994: EL PowerPC 620
-
1995: EL Intel Pentium Pro
-
1996: El AMD K5
-
1996: Los AMD K6 y AMD K6-2
-
1997: El Intel Pentium II
-
1998: El Intel Pentium II Xeon
-
1999: El Intel Celeron
-
1999: El AMD Athlon K7 (Classic y Thunderbird)
-
1999: El Intel Pentium III
-
1999: El Intel Pentium III Xeon
-
2000: EL Intel Pentium 4
-
2001: El AMD Athlon XP
-
2004: El Intel Pentium 4 (Prescott) 2004: El Intel Pentium 4 (Prescott)
-
2004: El AMD Athlon 64
-
2006: EL Intel Core Duo
-
2007: El AMD Phenom
-
2008: El Intel Core Nehalem
-
2008: Los AMD Phenom II y Athlon II
-
2011: El Intel Core Sandy Bridge
-
2011: El AMD Fusion
-
2012: El Intel Core Ivy Bridge
-
2013: El Intel Core Haswell

2 Funcionamiento
Desde el punto de vista lógico, singular y funcional, el microprocesador está
compuesto básicamente por: varios registros,
una unidad de control, una unidad aritmético
lógica, y dependiendo del procesador, puede
contener una unidad de coma flotante.
El microprocesador ejecuta instrucciones
almacenadas como números binarios organizados secuencialmente en la memoria
principal. La ejecución de las instrucciones se puede realizar en varias fases:

Prefetch, prelectura de la instrucción desde la memoria principal.

Fetch, envío de la instrucción al decodificador

Decodificación de la instrucción, es decir, determinar qué instrucción es y
por tanto qué se debe hacer.

Lectura de operandos (si los hay).

Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el
procesamiento.

Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo
de la estructura del procesador, y concretamente de su grado de segmentación.
La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca
podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en
un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un
circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos
a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo.
Este reloj, en la actualidad, genera miles de megahercios.

3 Rendimiento
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace
pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese
mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el
hecho de que los procesadores no han requerido frecuencias más altas para
aumentar su potencia de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5
GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso
mayores comparados con los primeros que alcanzaron esos valores
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores
con arquitecturas muy similares o iguales, de manera que su funcionamiento
interno sea el mismo: en ese caso la frecuencia es un índice de comparación
válido. Dentro de una familia de procesadores es común encontrar distintas
opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio
tienen los mismos límites de funcionamiento: son probados a distintas frecuencias,
hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al
resultado de las pruebas.
Esto se podría reducir en que los procesadores son fabricados por lotes con
diferentes estructuras internas atendiendo a gamas y extras como podría ser una
memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas
difieren muchísimo más de las bajas que simplemente de su memoria caché.
La capacidad de un procesador depende fuertemente de los componentes
restantes del sistema, sobre todo del chipset, de la memoria RAM y del software
4. Arquitectura
El microprocesador tiene una arquitectura parecida a la computadora digital. En
otras palabras, el microprocesador es como la computadora digital porque ambos
realizan cálculos bajo un programa de control. Utiliza el mismo tipo de lógica que
es usado en la unidad procesadora central (CPU) de una computadora digital.
Con la aparición de las computadoras personales (PC) y la reducción en el costo
de las mismas, el microprocesador se convirtió en uno de los dispositivos
electrónicos más importantes en la historia de la electrónica
El microprocesador es una unidad procesadora de datos. En él se pueden
diferenciar diversas partes:
Encapsulado: Es lo que rodea a la oblea de silicio en sí, para darle consistencia,
impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con
los conectores externos que lo acoplaran a su zócalo a su placa base.
Memoria caché: Es una memoria ultrarrápida que emplea el procesador para tener
alcance directo a ciertos datos que «predeciblemente» serán utilizados en las
siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el
tiempo de espera para adquisición de datos. Todos los micros compatibles con PC
poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro
del micro, encapsulada junto a él. Los micros más modernos (Core i3,Core i5 ,core
i7, etc.) incluyen también en su interior otro nivel de caché, más grande, aunque
algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con
memoria caché de nivel 3, o L3.
Coprocesador matemático: Unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el
exterior del procesador en otro chip. Esta parte está considerada como una parte
«lógica» junto con los registros, la unidad de control, memoria y bus de datos.
Registros: Son básicamente un tipo de memoria pequeña con fines especiales que
el micro tiene disponible para algunos usos particulares. Hay varios grupos de
registros en cada procesador. Un grupo de registros está diseñado para control del
programador y hay otros que no son diseñados para ser controlados por el
procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta
y dos registros.
Memoria: Es el lugar donde el procesador encuentra las instrucciones de los
programas y sus datos. Tanto los datos como las instrucciones están
almacenados en memoria, y el procesador las accede desde allí. La memoria es
una parte interna de la computadora y su función esencial es proporcionar un
espacio de almacenamiento para el trabajo en curso.
Puertos: Es la manera en que el procesador se comunica con el mundo externo.
Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de
la computadora con la cual el procesador necesita comunicarse, tiene asignado un
«número de puerto» que el procesador utiliza como si fuera un número de teléfono
para llamar circuitos o a partes especiales.
5. Fabricación
5.1 Procesadores de silicio
El proceso de fabricación de un microprocesador es muy complejo.
Todo comienza con un buen puñado de arena (compuesta básicamente de silicio),
con la que se fabrica un mono cristal de unos 20 x 150 centímetros. Para ello, se
funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a
40 mm por hora) se va formando el cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie
exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en
obleas de 10 micras de espesor, la décima parte del espesor de un cabello
humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de
obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan
por un proceso llamado “annealing”, que consiste en someterlas a un
calentamiento extremo para eliminar cualquier defecto o impureza que pueda
haber llegado a esta instancia. Después de una supervisión mediante láseres
capaz de detectar imperfecciones menores a una milésima de micra, se recubren
con una capa aislante formada por óxido de silicio transferido mediante deposición
de vapor.
De aquí en adelante, comienza el proceso del «dibujado» de los transistores que
conformarán a cada microprocesador. A pesar de ser muy complejo y preciso,
básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea,
sucediéndose la deposición y eliminación de capas finísimas de materiales
conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y
atacada por ácidos encargados de eliminar las zonas no cubiertas por la
impresión. Salvando las escalas, se trata de un proceso comparable al visto para
la fabricación de circuitos impresos. Después de cientos de pasos, entre los que
se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la
implantación iónica y la deposición de capas; se llega a un complejo «bocadillo»
que contiene todos los circuitos interconectados del microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho
equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que
se necesita al momento de aplicar cada una de las máscaras utilizadas durante la
fabricación.
Los detalles de un microprocesador son tan pequeños y precisos que una única
mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas
para la fabricación de microprocesadores se denominan salas limpias, porque el
aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre
de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1.
La cifra indica el número máximo de partículas mayores de 0,12 micras que puede
haber en un pie cúbico (0,028 m3) de aire. Como comparación, un hogar normal
sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles
para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados”
en su superficie varios cientos de microprocesadores, cuya integridad es
comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado,
y que termina con una oblea que tiene grabados algunas marcas en el lugar que
se encuentra algún microprocesador defectuoso.
La mayoría de los errores se dan en los bordes de la oblea, dando como
resultados chips capaces de funcionar a velocidades menores que los del centro
de la oblea o simplemente con características desactivadas, tales como núcleos.
Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso
el microprocesador es una pequeña placa de unos pocos milímetros cuadrados,
sin pines ni cápsula protectora.
Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en
algunos casos pueden ser cerámicas) y conectada a los cientos de pines
metálicos que le permitirán interactuar con el mundo exterior. Estas conexiones se
realizan utilizando delgadísimos alambres, generalmente de oro. De ser necesario,
la cápsula es provista de un pequeño disipador térmico de metal, que servirá para
mejorar la transferencia de calor desde el interior del chip hacia el disipador
principal. El resultado final es un microprocesador como los que equipan a los
computadores.
También se están desarrollando alternativas al silicio puro, tales como el carburo
de silicio que mejora la conductividad del material, permitiendo mayores
frecuencias de reloj interno; aunque aún se encuentra en investigación.
5.2 Otros materiales
Aunque la gran mayoría de la producción de circuitos integrados se basa en el
silicio, no se puede omitir la utilización de otros materiales que son una alternativa
tales como el germanio; tampoco las investigaciones actuales para conseguir
hacer operativo un procesador desarrollado con materiales de características
especiales como el grafeno o la molibdenita.
6. Empaquetado
Los microprocesadores son circuitos integrados y como tal están formados por un
chip de silicio y un empaque con conexiones eléctricas. En los primeros
procesadores el empaque se fabricaba con plásticos epóxidos o con cerámicas en
formatos como el DIP entre otros. El chip se pegaba con un material térmicamente
conductor a una base y se conectaba por medio de pequeños alambres a unas
pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica
u otra pieza del mismo material de la base de manera que los alambres y el silicio
quedaran encapsulados.
En
la
actualidad
los
microprocesadores
de
diversos
tipos
(incluyendo
procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip
semiconductor es soldado directamente a un arreglo de pistas conductoras (en el
sustrato laminado) con la ayuda de unas micro esferas que se depositan sobre las
obleas de semiconductor en las etapas finales de su fabricación. El sustrato
laminado es una especie de circuito impreso que posee pistas conductoras hacia
pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y
un zócalo de CPU o una placa base.
Antiguamente la conexión del chip con los pines se realizaba por medio de micro
alambres de manera que quedaba boca arriba, con el método Flip Chip queda
boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la
simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla
queda bocabajo presenta el sustrato base de silicio de manera que puede ser
enfriado directamente por medio de elementos conductores de calor. Esta
superficie se aprovecha también para etiquetar el integrado. En los procesadores
para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se
opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como
el de la primera imagen. En los procesadores de Intel también se incluye desde el
Pentium III de más de 1 GHz.
6.1 Disipación de calor
Con el aumento de la cantidad de transistores integrados en un procesador, el
consumo de energía se ha elevado a niveles en los cuales la disipación calórica
natural del mismo no es suficiente para mantener temperaturas aceptables y que
no se dañe el material semiconductor, de manera que se hizo necesario el uso de
mecanismos de enfriamiento forzado, esto es, la utilización de disipadores de
calor.
Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos,
que aumentan el área de radiación, permitiendo que la energía salga rápidamente
del sistema. También los hay con refrigeración líquida, por medio de circuitos
cerrados.
En los procesadores más modernos se aplica en la parte superior del procesador,
una lámina metálica denominada IHS que va a ser la superficie de contacto del
disipador para mejorar la refrigeración uniforme del die y proteger las resistencias
internas de posible toma de contacto al aplicar pasta térmica. Varios modelos de
procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una
incorrecta aplicación de la pasta térmica.
Para las prácticas de overclock extremo, se llegan a
utilizar elementos químicos tales como hielo seco, y en
casos más extremos, nitrógeno líquido, capaces de
rondar temperaturas por debajo de los -190 grados
Celsius y el helio líquido capaz de rondar temperaturas
muy próximas al cero absoluto. De esta manera se
puede prácticamente hasta triplicar la frecuencia de reloj
de referencia de un procesador de silicio. El límite físico del silicio es de 10 GHz,
mientras que el de otros materiales como el grafeno puede llegar a 1 THz

7 Conexión con el exterior
El microprocesador posee un arreglo de elementos metálicos que permiten la
conexión eléctrica entre el circuito integrado que conforma el microprocesador y
los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un
procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la
superficie de su empaque. El montaje del procesador se realiza con la ayuda de
un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos tres
tipos de conexión:
-
PGA: Pin Grid Array: La conexión se realiza mediante
pequeños alambres metálicos repartidos a lo largo de la base
del procesador introduciéndose en la placa base mediante
unos pequeños agujeros, al introducir el procesador, una
palanca anclará los pines para que haga buen contacto y no
se suelten.
-
BGA: Ball Grid Array: La conexión se realiza mediante bolas
soldadas al procesador que hacen contacto con el zócalo
-
LGA: Land Grid Array: La conexión se realiza mediante
superficies de contacto lisas con pequeños pines que incluye
la placa base.
Entre las conexiones eléctricas están las de alimentación
eléctrica de los circuitos dentro del empaque, las señales
de reloj, señales relacionadas con datos, direcciones y
control; estas funciones están distribuidas en un esquema
asociado al zócalo, de manera que varias referencias de
procesador y placas base son compatibles entre ellos,
permitiendo distintas configuraciones.

7.1Buses del procesador
Todos los procesadores poseen un bus principal o de sistema por el cual se
envían y reciben todos los datos, instrucciones y direcciones desde los integrados
del chipset o desde el resto de dispositivos. Como puente de conexión entre el
procesador y el resto del sistema, define mucho del rendimiento del sistema, su
velocidad se mide en bits por segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses
seriales o paralelos y con distintos tipos de señales eléctricas. La forma más
antigua es el bus paralelo en el cual se definen líneas especializadas en datos,
direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se
llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones
además de múltiples líneas de control que permiten la transmisión de datos entre
el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer
procesador de la historia, con mejoras en la señalización que le permite funcionar
con relojes de 333 Mhz haciendo 4 transferencias por ciclo.
En algunos procesadores de AMD y
en el Intel Core i7 se han usado otros
tipos para el bus principal de tipo
serial. Entre estos se encuentra el
bus HyperTransport de AMD, que
maneja los datos en forma de
paquetes usando una cantidad menor
de líneas de comunicación,
permitiendo frecuencias de
funcionamiento más altas y en el caso de Intel, Quickpath
Los microprocesadores de Intel y de AMD (desde antes) poseen además un
controlador de memoria de acceso aleatorio en el interior del encapsulado lo que
hace necesario la implementación de buses de memoria del procesador hacia los
módulos. Ese bus está de acuerdo a los estándares DDR de JEDEC y consisten
en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la
cantidad de canales pueden existir de 1 a 4 buses de memoria.

8 Arquitecturas CISC Y RISC.
Significado de los términos CISC y RISC:
-
CISC (complex instruction set computer)
Computadoras con un conjunto de instrucciones
complejo.
-
RISC (reduced instruction set computer)
Computadoras con un conjunto de instrucciones
reducido.
Así, los términos complejo y reducido, expresan muy bien una importante
característica definitiva, siempre que no se tomen solo como referencia las
instrucciones, sino que se considere también la complejidad del hardware del
procesador.
La meta principal es incrementar el rendimiento del procesador, ya sea
optimizando alguno existente o se desee crear uno nuevo.
Arquitectura CISC
La microprogramación es una característica importante y esencial de casi todas
las arquítecturas CISC.
Como por ejemplo:
Intel 8086, 8088, 80286, 80386, 80486.
Motorola 68000, 68010, 68020, 68030, 6840.
La microprogramación significa que cada instrucción de máquina es interpretada
por un microprograma localizado en una memoria en el circuito integrado del
procesador.
En la década de los sesentas la micropramación, por sus características, era la
técnica más apropiada para las tecnologías de memorias existentes en esa época
y permitía desarrollar también procesadores con compatibilidad ascendente. En
consecuencia, los procesadores se dotaron de poderosos conjuntos de
instrucciones.
Las instrucciones compuestas son decodificadas internamente y ejecutadas con
una serie de microinstrucciones almacenadas en una ROM interna. Para esto se
requieren de varios ciclos de reloj (al menos uno por microinstrucción).
Arquitectura RISC
Buscando aumentar la velocidad del procesamiento se descubrió en base a
experimentos que, con una determinada arquitectura de base, la ejecución de
programas compilados directamente con microinstrucciones y residentes en
memoria externa al circuito integrado resultaban ser más eficientes, gracias a que
el tiempo de acceso de las memorias se fue decrementando conforme se
mejoraba su tecnología de encapsulado.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden
implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la
necesidad de decodificar instrucciones complejas.
En investigaciones hechas a mediados de la década de los setentas, con respecto
a la frecuencia de utilización de una instrucción en un CISC y al tiempo para su
ejecución, se observó lo siguiente:
- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo
total de ejecución de un programa.
- Existen secuencias de instrucciones simples que obtienen el
mismo resultado que secuencias complejas predeterminadas, pero
requieren tiempos de ejecución más cortos.
Las características esenciales de una arquitectura RISC pueden
resumirse como sigue:

Estos microprocesadores siguen tomando como base
el esquema moderno de Von Neumann.

Las instrucciones, aunque con otras características, siguen
divididas en tres grupos:
a) Transferencia.
b) Operaciones.
c) Control de flujo.

Reducción del conjunto de instrucciones a instrucciones
básicas simples, con la que pueden implantarse todas las
operaciones complejas.

Arquitectura del tipo load-store (carga y almacena). Las
únicas instrucciones que tienen acceso a la memoria son
'load' y 'store'; registró a registro, con un menor número de
acceso a memoria.

Casi todas las instrucciones pueden ejecutarse dentro de un
ciclo de reloj. Con un control implantado por hardware (con un
diseño del tipo load-store), casi todas las instrucciones se
pueden ejecutar cada ciclo de reloj, base importante para la
reorganización de la ejecución de instrucciones por medio de
un compilador.

Pipeline (ejecución simultánea de varias instrucciones).
Posibilidad de reducir el número de ciclos de máquina
necesarios para la ejecución de la instrucción, ya que esta
técnica permite que una instrucción puede empezar a
ejecutarse antes de que haya terminado la anterior.
El hecho de que la estructura simple de un procesador RISC conduzca a una
notable reducción de la superficie del circuito integrado, se aprovecha con
frecuencia para ubicar en el mismo, funciones adicionales:

Unidad para el procesamiento aritmético de punto flotante.

Unidad de administración de memoria.

Funciones de control de memoria cache.

Implantación de un conjunto de registros múltiples.
La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos
de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita
siempre la aplicación de las más recientes tecnologías de semiconductores. Por
ello, los procesadores RISC no solo tienden a ofrecer una capacidad de
procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad
que se producen de generación en generación son mucho mayores que en los
CISC.
Por otra parte, es necesario considerar también que:

La disponibilidad de memorias grandes, baratas y con
tiempos de acceso menores de 60 ns en tecnologías CMOS.

Módulos SRAM (Memoria de acceso aleatorio estática) para
memorias cache con tiempos de acceso menores a los 15 ns.

Tecnologías de encapsulado que permiten realizar más de
120 terminales.
Esto ha hecho cambiar, en la segunda mitad de la década de los ochentas,
esencialmente las condiciones técnicas para arquitecturas RISC.
¿En qué consisten los superconductores?
Un superconductor es un material que no opone resistencia al flujo de corriente
eléctrica por él.
Los superconductores también presentan un acusado diamagnetismo, es decir,
son repelidos por los campos magnéticos.

1 Comportamiento Magnético
Aunque la propiedad más sobresaliente de los superconductores es la ausencia
de resistencia, lo cierto es que no podemos decir que se
trate de un material de conductividad infinita, ya que este
tipo de material por sí sólo no tiene sentido
termodinámico. En realidad un material superconductor
de tipo I es perfectamente diamagnético. Esto hace que
no permita que penetre el campo, lo que se conoce
como efecto Meissner.
El campo magnético distingue dos tipos de
superconductores: los de tipo I, que no permiten en absoluto que penetre un
campo magnético externo (lo cual conlleva un esfuerzo energético alto, e implica
la ruptura brusca del estado superconductor si se supera la temperatura crítica), y
los de tipo II, que son superconductores imperfectos, en el sentido en que el
campo realmente penetra a través de pequeñas canalizaciones denominadas
vórtices de Abrikosov, o fluxones. Estos dos tipos de superconductores son de
hecho dos fases diferentes que fueron predichas por Lev Davidovich Landau y
Aleksey Alekséyevich Abrikosov.
Cuando a un superconductor de tipo II le aplicamos un campo magnético externo
débil lo repele perfectamente. Si lo aumentamos, el sistema se vuelve inestable y
prefiere introducir vórtices para disminuir su energía. Éstos van aumentando en
número colocándose en redes de vórtices que pueden ser observados mediante
técnicas adecuadas. Cuando el campo es suficientemente alto, el número de
defectos es tan alto que el material deja de ser superconductor. Éste es el campo
crítico que hace que un material deje de ser superconductor y que depende de la
temperatura

2 Comportamiento eléctrico
La aparición del superdiamagnetismo es debida a la capacidad del material
de crear supercorrientes. Éstas son corrientes de electrones que no disipan
energía, de manera que se pueden mantener eternamente sin obedecer el
Efecto Joule de pérdida de energía por generación de calor. Las corrientes
crean el intenso campo magnético necesario para sustentar el efecto
Meissner. Estas mismas corrientes permiten transmitir energía sin gasto
energético, lo que representa el efecto más espectacular de este tipo de
materiales. Debido a que la cantidad de electrones superconductores es
finita, la cantidad de corriente que puede soportar el material es limitada.
Por tanto, existe una corriente crítica a partir de la cual el material deja de
ser superconductor y comienza a disipar energía.
En los superconductores de tipo II, la aparición de fluxones provoca que,
incluso para corrientes inferiores a la crítica, se detecte una cierta
disipación de energía debida al choque de los vórtices con los átomos de la
red.

3 Calor especifico
En los metales el calor específico es una función de la temperatura. Cuando la
temperatura es muy baja, pero el metal está en el estado normal
Donde a y b son constantes que se pueden medir mediante experimentos. El
primer término (el término lineal) refleja la conducción eléctrica, mientras que el
segundo término (el que varía con el cubo de la temperatura) se debe a los
fonones (es decir, a las vibraciones de la red).
Sin embargo, si seguimos enfriando y el metal pasa al estado superconductor,
este comportamiento cambia radicalmente: el calor específico tiene una
discontinuidad en la temperatura crítica, aumentando sensiblemente

. 4 Historia de la superconductividad

4.1 El descubrimiento
La historia de la superconductividad empieza en 1911 en Leiden, Países Bajos.
Allí H. Kamerlingh Onnes desarrollo las primeras técnicas criogénicas para enfriar
muestras hasta algunos grados por encima del cero absoluto (correspondientes a
cero Kelvin, es decir, menos doscientos, setenta y tres grados centígrados). Fue el
primero que consiguió llevar el helio hasta debajo de su punto de licuefacción
(4,2ºK), abriendo así el campo de las bajas temperaturas. Al principio, Kamerlingh
Onnes "monopolizó" completamente este campo, ya que Leiden fue, hasta 1923,
el único lugar del mundo que disponía de helio líquido.
En aquellas épocas se sabía que los metales tiene una resistividad que disminuye
de manera prácticamente lineal con la temperatura hasta unos veinte Kelvin, y se
quería saber que ocurría con esta resistividad en las proximidades del cero
absoluto: ¿seguía decreciendo linealmente? ¿Tendía, quizás, a un valor
constante? O bien ¿se remontaría hacia valores muy elevados, característicos de
un comportamiento aislante en vez de conductor? Kamerlingh Onnes se dio
cuenta muy pronto de que era necesario disponer de metales muy puros, si quería
obtener resultados libres de toda ambigüedad. Eligió el mercurio, elemento que
puede conseguirse con un alto grado de pureza mediante sucesivas destilaciones
y que además es conductor en estado metálico. De este modo, y enfriando el
mercurio a muy baja temperatura, pudo observar un fenómeno nuevo y totalmente
inesperado: a una temperatura de 4,2ºK, el mercurio pasaba bruscamente a un
estado en el que, repentinamente, no ofrecía resistividad alguna al paso de la
corriente eléctrica. Esta transición se manifestaba por una caída muy brusca de la
resistividad. Kamerlingh Onnes había descubierto la superconductividad. Gracias
a sus descubrimientos, principalmente por su método para lograr la producción de
helio líquido, recibiría dos años más tarde el premio Nobel de física.
Poco después se observó que la misma transición al estado de superconductor se
producía en otros metales, como el plomo o el niobio, a temperaturas criticas
ligeramente más altas. Posteriormente a partir de los años 1930, la
superconductividad se observó también en cuerpos compuestos, principalmente
en aleaciones intermetalicas. La elevación de las temperaturas críticas (Tc) fue
prosiguiendo a lo largo de los años, con un progreso lento pero bastante regular.
En 1973 la temperatura crítica más elevada fue de 23,3 Kelvin, con una aleación
de niobio y germanio (Nb Ge). Trece años más tarde la situación era la misma y la
mayoría de los físicos habían acabado por convencerse de que no podía llegarse
mucho más lejos.
En el año 1960 se demostró que el titanato de estroncio (SrTiO) se hace
superconductor, pero con una temperatura de transición muy baja: 0,3 Kelvin.
Posteriores estudios analizados en Rüshlikon permitieron aumentar esta
temperatura crítica hasta 0,8 Kelvin mediante el dopado del compuesto con niobio.
Diez años más tardes en 1973, D.C. Johnston y sus colegas obtuvieron un
resultado más significativo con un oxido de titanio y litio
(Li-Ti-O): una temperatura critica de 13,7 Kelvin. En
1975, A.W. Sleight y sus colaboradores observaron una
transición a 13 Kelvin en un compuesto de valencia
mixta: un oxido de bario y plomo dopado con bismuto
(BaPbBiO). En esta fórmula el subíndice x indica la
proporción de bismuto sustituida en el plomo.
Desde 1986, fecha de su descubrimiento los superconductores de la temperatura
relativamente elevadas plantean difíciles problemas a los teóricos. Todavía no se
sabe si el mecanismo responsable del agrupamiento de los electrones por pares
que está en el origen de la superconductividad es o no similar al de los
superconductores convencionales.

4.1 Las teorías principales
Los mayores avances en la comprensión de la superconductividad
tuvieron lugar en los años cincuenta: en 1950 es publicada la teoría
Ginzburg-Landau, y en 1957 vería la luz la teoría BCS.
La teoría BCS fue desarrollada por Bardeen, Cooper y Schrieffer (de
sus iniciales surge el nombre BCS), gracias a lo cual los tres recibirían
el premio Nobel de física en 1972. Esta teoría se pudo desarrollar
gracias a dos pistas fundamentales ofrecidas por físicos experimentales
a principios de los años cincuenta:

el descubrimiento del efecto isotópico en 1950 (que vinculó la
superconductividad con la red cristalina),

y el descubrimiento de Lars Onsager en 1953 de que los
portadores de carga son en realidad parejas de electrones
llamados pares de Cooper (resultado de experimentos sobre la
cuantización flujo magnético que pasa a través de un anillo
superconductor).
La teoría Ginzburg-Landau es una generalización de la teoría de
London desarrollada por Vitaly Ginzburg y Lev Landau en 1950. Si
bien esta teoría precede siete años a la teoría BCS, los físicos de
Europa Occidental y Estados Unidos le prestaron poca atención por
su carácter más fenomenológico que teórico, unido a la
incomunicación de aquellos años entre ambos lados del Telón de
Acero. Esta situación cambió en 1959, año en que Lev Gor'kov
demostró que se podía derivar rigurosamente a partir de la teoría
microscópica en un artículo que también publicó en inglés.3
En 1962 Brian David Josephson predijo que podría haber corriente
eléctrica entre dos conductores incluso si hubiera una pequeña
separación entre estos, debido al efecto túnel. Un año más tarde
Anderson y Rowell lo confirmaron experimentalmente. El efecto
sería conocido como efecto Josephson, y está entre los fenómenos
más importantes de los superconductores, teniendo gran variedad
de aplicaciones, desde la magneto encefalografía hasta la predicción
de terremotos.

4.3 Los superconductores de alta temperatura
Tras algunos años de relativo estancamiento, en 1987 Bednorz y Müller
descubrieron que una familia de materiales cerámicos, los óxidos de cobre con
estructura de perovsquita, eran superconductores con temperaturas críticas
superiores a 90 kelvin. Estos materiales, conocidos como superconductores de
alta temperatura, estimularon un renovado interés en la investigación de la
superconductividad. Como tema de la investigación pura, estos materiales
constituyen un nuevo fenómeno que solo se explica por el hecho de que hace
pasar los electrones por parejas o "pares de Cooper". Y, debido a que el estado
superconductor persiste hasta temperaturas más manejables, superiores al punto
de ebullición del nitrógeno líquido, muchas aplicaciones comerciales serían
viables, sobre todo si se descubrieran materiales con temperaturas críticas aún
mayores.
Con superconductividad de alta temperatura se puede hacer referencia a dos
clasificaciones de los superconductores: o bien se refiere a aquellos que no
responden a la teoría BCS, o bien se refiere a superconductores con temperatura
crítica mayor que la temperatura de ebullición del nitrógeno (77K). Que haga
referencia a estas dos clasificaciones se debe a que, por lo general, la
temperatura crítica de los superconductores que no cumplen la BCS es mayor que
las de aquellos que sí la siguen, aunque existen múltiples excepciones.
Este tipo de superconductividad fue descubierta en 1986 por Karl Alexander Müller
y Johannes Georg Bednorz y fue inmediatamente reconocida por el Premio Nobel
de Física de 1987. Desde el punto de vista de la clasificación hecha anteriormente,
estos estudios se corresponden con los superconductores que no cumplen la
teoría BCS, aunque su temperatura crítica es mayor que la de todos los
superconductores convencionales conocidos por aquel entonces.
La búsqueda de una comprensión teórica de la superconductividad de alta
temperatura se considera como uno de los problemas más importantes sin
resolver en la física. Actualmente sigue siendo un tema de intensa investigación
experimental y teórica, con más de 100000 documentos publicados sobre el tema.
Pese a las intensas investigaciones, una explicación satisfactoria sigue eludiendo
a los científicos. Una de las razones para
ello es que los materiales en cuestión
son por lo general muy complejos, con
varias capas de cristales (por ejemplo,
BSCCO), lo que hace difícil el modelado
teórico. Sin embargo, con el rápido ritmo
de nuevos descubrimientos en este
campo, muchos investigadores son optimistas en una completa comprensión del
proceso dentro de la próxima década más o menos.