Download 1 - El cliente, fuerza impulsora de la estrategia.

Document related concepts

Red neuronal artificial wikipedia , lookup

Perceptrón wikipedia , lookup

Red neuronal de impulsos wikipedia , lookup

Conexionismo wikipedia , lookup

Teoría hebbiana wikipedia , lookup

Transcript
REDES NEURONALES EN MACROECONOMIA
Introducción
Las redes neuronales son modelos analógicos que tienen como objetivo reproducir en lo
posible las características y la capacidad de procesamiento de información del conjunto de
neuronas presentes en el cerebro de los seres vivos. El concepto de Red Nueronal Artificial
está inspirado en las Redes Neuronales Biológicas. Una Red Neuronal Biológica es un
dispositivo no lineal altamente paralelo, caracterizado por su robustez, tolerancia a fallos,
capacidad de adaptación y aprendizaje, por último la capacidad de procesar información
defectuosa.
Sus principales características son las siguientes:
-Aprendizaje mediante adaptación de sus pesos (pares de neuronas) sinápticos a los
cambios en el entorno.
-Manejo de imprecisión, ruido e información probabilística.
-Generalización a partir de ejemplos.
Las Redes Neuronales Artificiales intentan imitar algunas, o todas, de estas características.
Este paradigma de programación difiere de las secuencias de instrucciones en donde la
información se encuentra almacenada en las conexiones sinápticas. Cada neurona es un
procesador elemental con operaciones muy primitivas como la suma ponderada de sus
pesos de entrada y la amplificación o umbralización de esta suma.
Una Red Neuronal viene caracterizada por su topología, por la intensidad de la conexión
entre sus pares de neuronas (pesos), por las propiedades de los nodos y por las reglas de
actualización de pesos. Las reglas de actualización, también llamadas de aprendizaje,
controlan los pesos y/o estados de los elementos de procesados (neuronas).
Los principales aspectos de este modelo de computación distribuida son los siguientes:
-Un conjunto de unidades de procesamiento.
-Un estado de activación para cada unidad, que es equivalente a la salida de la unidad.
-Conexiones entre unidades, generalmente definida por un peso, que determina el efecto de
la unidad j sobre la unidad k.
-Una regla de propagación que determina la entrada de la unidad a partir de sus entradas
externas.
-Una función de activación que determina el estado de activación en función de la entrada
de la unidad (en algunos casos la función de activación tiene en cuenta la activación actual
de la unidad).
-Una entrada externa (o offset) para cada unidad.
-Un método para modificar los valores de los pesos (regla de aprendizaje).
-Un entorno de trabajo en el que el sistema opere, compuesto por señales de entrada y, si es
necesario, señales de error.
Normalmente, la dinámica de actuación es definir una función objetivo que representa el
estado completo de la red y localizar el conjunto de mínimos de esa función que se
corresponden con los diferentes estados estables de la red.
1. Definición de Neurona
1.1 Fisiología y conceptos biológicos de la neurona
El concepto biológico de la neurona ha tenido bastantes evoluciones, pero uno de los pasos
fundamentales en el estudio de las células nerviosas fue dado a finales del siglo XIX
(1899), gracias a los trabajos de Ramón y Cajal en España y Sherrington en Inglaterra. El
primero trabajó en la anatomía de las neuronas y el segundo en los puntos de conexión de
las mismas o sinápsis.
El tejido nervioso es el más diferenciado del organismo y está constituido por células
nerviosas, fibras nerviosas y la neuroglia, que está formada por varias clases de células. La
célula nerviosa se denomina neurona, que es la unidad funcional del sistema nervioso. Hay
neuronas bipolares, con dos prolongaciones de fibras y multipolares, con numerosas
prolongaciones. Pueden ser neuronas sensoriales, motoras y de asociación.
Se estima que en cada milímetro del cerebro hay cerca de 50.000 neuronas. Lo que arroja
un total cercano al 0.1 billón de neuronas. Cada una de ella posee alrededor de 100 billones
de conexiones sinápticas mientras que estudios anatómicos del cerebro indican más de 1000
sinapsis a la entrada y salida de cada neurona.
El tamaño y la forma de las neuronas es variable, pero con las mismas subdivisiones que
muestra la figura. El cuerpo de la neurona o Soma contiene el núcleo. Se encarga de todas
las actividades metabólicas de la neurona y recibe la información de otras neuronas vecinas
a través de las conexiones sinápticas.
Figura 1: Esquema de neurona biológica
Las dendritas son las conexiones de entrada de la neurona. Por su parte el axón es la
"salida" de la neurona y se utiliza para enviar impulsos o señales a otras células nerviosas.
Cuando el axón esta cerca de sus células destino se divide en muchas ramificaciones que
forman sinápsis con el soma o axones de otras células. Esta unión puede ser "inhibidora" o
"excitadora" según el transmisor que las libere.
Fundamental es el hecho de que aunque el tiempo de conmutación de la neurona es casi un
millón de veces menor que las computadoras actuales, ellas tienen una conectividad miles
de veces superior a la de los computadores más poderosos en la actualidad.
La transmisión de una señal de una célula a otra por medio de la sinápsis es un proceso
químico. En él se liberan substancias transmisoras en el lado del emisor de la unión. El
efecto es elevar o disminuir el potencial eléctrico dentro del cuerpo de la célula receptora.
Si su potencial alcanza el umbral se envía un pulso o potencial de acción por el axón. Se
dice, entonces, que la célula se disparó. Este pulso alcanza otras neuronas a través de la
distribuciones de los axones.
La característica principal que diferencian a las neuronas del resto de las células vivas, es su
capacidad de comunicarse, esto cobra gran relevancia en el concepto de red neuronal
artificial.
2.- Definición de Red Neuronal
2.1 Funcionamiento de neuronas como un grupo de aprendizaje
Definiciones:
Las neuronas, como un sistema biológico, está formado por neuronas de entrada o censores
conectados a una compleja red de neuronas que "calculan", o neuronas ocultas, las cuales, a
su vez, están conectadas a las neuronas de salidas encargadas por ejemplo, de controlar los
músculos. Por censores se entienden señales de los sentidos (oído, vista, etc.), las
respuestas de las neuronas de salida activan los músculos correspondientes. En el cerebro
hay una gigantesca red de neuronas "calculadoras" u ocultas que realizan la computación
necesaria. De esta manera similar, una red neuronal artificial debe ser compuesta por
censores del tipo mecánico o eléctrico.
Figura 2: Red Neuronal Artificial Típica
Las Redes Neuronales Artificiales (Neural Networks) son sistemas paralelos para el
procesamiento de la información, inspirados en el modo en el que las redes de neuronas
biológicas del cerebro procesan esta. Es decir que se han intentado plasmar los aspectos
esenciales de una neurona real a la hora de diseñar una neurona "artificial". Estos modelos
realizan una simplificación, desentrañando cuales son las relevancias del sistema.
La definición más general considera a una Neural Network como un entramado o estructura
formada por muchos procesadores simples llamados nodos o neuronas, conectados por
medio de canales de comunicación o conexiones. Cada una de ellas tiene una cantidad de
memoria local, operando solamente con sus datos locales y sobre las entradas que recibe a
través de esas conexiones.
Las Redes Neuronales llevan asociadas algún tipo de regla de aprendizaje o entrenamiento
particular por la cual esas conexiones son ajustadas acorde a los ejemplos proporcionados.
En otras palabras, estas aprenden a partir de ejemplos, y muestran alguna capacidad para
generalizar más allá de esos datos mostrados.
Variadas son las definiciones de Redes Neuronales. Es un concepto incipiente y en
constante cambio. Algunas otras definiciones se muestran a continuación:
DARPA Neural Network Study (1988, AFCEA International Press, p.60) "Una red
neuronal es un sistema compuesto de muchos elementos simples de proceso operando en
paralelo cuya función está determinada por la estructura de la red, los pesos de las
conexiones, y el procesado realizado en los elementos o nodos de cálculo."
Freeman (p.93) "Una red neuronal artificial es un sistema procesador de información con
características de desempeño similares a las redes neuronales biológicas. Una red neuronal
artificial ha sido desarrollada como la generalización de modelos matemáticos del
conocimiento humano o biología neuronal, basada en los siguientes acepciones: El
procesamiento de información ocurre en elementos sencillos llamados neuronas. Las
neuronas se transmiten señales a través de ligas de conexión. Cada liga de conexión esta
asociada con un peso, el cual, en típicas redes neuronales, multiplica la señal transmitida.
Cada neurona aplica una función de activacion (usualmente no lineal) a la entrada de la red
(la suma de entradas ponderadas por los pesos)".
Haykin, S. (1994), "Neural Networks: A Comprehensive Foundation." NY, MacMillan, p.2
"Una red neuronal es un procesador distribuido y con estructura paralela que tiene una
tendencia natural a almacenar conocimiento experimental, haciéndolo apto para su uso. Se
parece al cerebro en dos cosas:
1. El conocimiento es adquirido por la red a través de un proceso de aprendizaje.
2. Este conocimiento se almacena en los pesos sinápticos o conexiones entre neuronas."
Nigrin, A. (1993), "Neural Networks for Pattern Recognition".(Cambridge, MA: The MIT
Press, p.11.) "Una red neuronal es un circuito compuesto de un número elevado de
elementos simples de proceso con una base neurológica. Cada elemento opera sólo con
información local. Más aún, cada elemento opera asíncronamente por lo que no hay un reloj
total del sistema."
Sistemas Complejos y la Economía: Introducción
Los sistemas económicos presentan características contradictorias. Por un lado son un
ejemplo remarcable de auto-organización robusta. Algunos rasgos distintivos de estos
sistemas, como por ejemplo la aparición del dinero como medio de cambio, o la fijación de
precios a partir de decisiones descentralizadas y el mismo problema de coordinación que da
origen a los mercados son casos cabales auto-organización, en la que pareciera que una
``mano invisible'' parece operar sobre el sistema. Consumidores, productores y arbitrajistas
coordinan sus acciones a pesar de que cada uno toma sus decisiones independientemente,
con información usualmente incompleta y basándose en necesidades y preferencias
independientes entre sí.
El sistemas, estudiado como un todo, presenta un alto grado de orden y muchos parámetros
aparecen como auto-regulados. Catastrofes naturales, transformaciones sociales, ``shocks''
estructurales o externos suelen ser absorbidos por el sistema sin producir grandes cambios
en los valores esperados de muchos indicadores. Por otro lado los sistemas económicos
evolucionan contínuamente, cambiando de estructura interna por creación o desaparición de
actividades, produciendo tal vez súbitas fluctuaciones de grandes amplitudes sobre los
mercados, pronunciadas depresiones o altas inflaciones. Estas características sugieren que
el concepto de equilibrio económico posee un débil sustento empírico.
Puede resultar válido preguntarse si el valor de los indicadores económicos corresponde a
valores esperados del equilibrio o a valores intermedios de un proceso de relajación hacia o
fuera de él. Recordemos el debate que se planteó en los años '60 entre los neoclásicos, los
nuevos keynesianos y los macroeconomistas de desequilibrio, en el que se preguntaba si
realmente la economía se auto-regula o no y en caso afirmativo, cuál era su capacidad de
auto-regulación. En este debate los últimos sugieren que pueden existir mecanismos que
amplifiquen las perturbaciones debido a que el dinero rompe la cadena de información y
comunicación de los planes.
En los modelos Walrasianos sólo hay dispositivos auto-reguladores que operan en cada
mercado por excesos de demanda nocional y todos los planes y transacciones se terminan
realizando en equilibrio, por lo que no son considerados los efectos de derrame ni la
realización de operaciones fuera del equilibrio. Basta recordar la idea de A. Leijonufvud del
corredor por el que transita la economía y en el que pequeñas perturbaciones son soportadas
por el sistema, amortiguando sus efectos, pero las grandes fluctuaciones que desbordan los
límites de ese corredor pueden producir cambios insospechados. Haciendo una analogía con
los sistemas físicos podría pensarse que la amplitud de las fluctuaciones es un parámetro de
control que puede llevar a la economía a un nuevo estado o fase del sistema, produciendo lo
que en la física se denomina como una transición de fase. En lo que respecta a la predicción
del curso futuro de un sistema económico la situación es similar a la que debe enfrentar un
meteorólogo al intentar predecir la evolución del clima, o con mayor generalidad, la
evolución de todo sistema caótico mecánico: la cantidad de información presente necesaria
crece exponencialmente con el horizonte temporal que deseamos alcanzar con nuestra
predicción.
El desafío es encontrar un nivel adecuado de descripción de los sistemas y su consiguiente
evolución. Los meteorólogos que enfrentan diariamente este problema hacen la distinción
entre clima y predicción del tiempo: resulta imposible predecir si un día particular dentro de
varios meses va a llover o no, pero es posible conocer si el clima será lluvioso o seco, por
ejemplo. Tampoco debemos olvidar que los sistemas económicos poseen una diferencia
fundamental con otros sistemas naturales que consiste en su caracter auto-referencial:
aquellos que intentan predecir la evolución del sistema son parte del mismo sistema que
está siendo predicho, por lo cual toda afirmación acerca del futuro es susceptible de
convertirse en un factor que contribuye a su gestación. Como la evolución depende de la
percepción de los mismos actores del sistema pueden producirse profecías
autocumplidoras, efectos de contagio con dinámicas de manada y aún expectativas
irracionales. La evolución puede resultar ser muy frágil frente a cambios en la forma en que
se distribuye la información disponible y se produce la coordinación de los planes.
Los modelos económicos de equilibrio han resultado ser sumamente útiles para describir lo
que se puede esperar de un sistema luego de que un ajuste a un nuevo y coherente conjunto
de reglas ha tenido lugar. Muchos de estos modelos pueden tener múltiples equilibrios por
lo que no se puede dictaminar cual será el resultante luego de la transición. Frente a esta
situación cada vez más economistas han comenzado ha incursionar en el estudio de
modelos que simulan ``expectativas acotadas'' y aún irracionales, en un intento por formular
teorías que expliquen este tipo de dinámicas transicionales. La incorporación de procesos
de aprendizaje empleando algoritmos computacionales inteligentes como las redes
neuronales y los algoritmos evolutivos pueden resultar útiles para simular Agentes
Artificiales Adaptativos que representen a agentes económicos reales operando bajo el
supuesto de expectativas acotadas.
El comportamiento optmizador de los agentes económicos durante estos regímenes
transicionales puede diluirse por que muchas veces la complejidad de los problemas a
resolver son NP-Duros (no polinómicos). Esto significa que el tiempo necesario para
conocer la solución óptima crece exponencialmente con el número de configuraciones
posibles (usualmente muchas). Debido a que los agentes no poseen ni capacidad
computacional, ni tiempo ilimitado la búsqueda de buenas estrategias, pero subóptimas se
hace necesaria. Con esto se refuerza la idea de construir modelos bajo el supuesto de
expectativas acotadas.
En coincidencia con este nuevo punto de vista, nuevas aproximaciones están siendo
consideradas para construir modelos de trabajo. Hasta hace poco tiempo había sólo dos
métodos de construcción. El primero, púramente linguístico, posee en principio una
versatilidad ilimitada pero carece de precisión cuantitativa sobre las hipótesis básicas y las
conclusiones que se derivan. La segunda aproximación es púramente matemática. Tiene la
ventaja otorgar brindar mucha precisión y universalidad en sus conclusiones y se sustenta
en rigurosos teoremas matemáticos. Sin embargo en muchos casos los modelos económicos
se transforman en construcciones matemáticas ad hoc con supuestos sin justificación
empírica incorporados con el sólo propósito de suministrar al modelo una forma
matemática. Recordemos el debate iniciado por Milton Friedmann afirmando que
independientemente de que los supuestos sean o no realistas lo único importante es la
predictibilidad del modelo. Existe el riesgo que fijar primeramente el encuadre matemático
y luego forzar a los datos empíricos para que se ajusten a él. La tercer alternativa es la
construcción de modelos computacionales en la línea que se ha venido mencionando.
Desde este marco conceptual es posible simular un sistema económico desde la
aproximación ``bottom-up'', es decir partiendo de sus constituyentes elementales. Vemos
así a la economía como un número (grande) de agentes cuyas acciones individuales así
como las interacciones entre ellos son suficientemente explícitas como para que sean
implementadas algorítmicamente. Esta aproximación permite diseñar modelos con menores
restricciones que los púramente matemáticos, a pesar de requerir altos niveles de
simplificación respecto de situaciones reales. El desafío consiste en rescatar las propiedades
esenciales que son responsables de los comportamientos emergentes del sistema.
Un modelo exitoso, a pesar de la fuerte abstracción, nos permite discutir y estudiar los
hechos estilizados básicos y trabajar con él como un verdadero laboratorio en el que es fácil
simular condiciones extremas. Investigaciones de esta naturaleza se vienen desarrollando
en instituciones de todo el mundo. Valgan como ejemplos el Santa Fe Institute (SFI) de
estudios no lineales y ciencias de la complejidad que ha instaurado una escuela de verano
en Economía Computacional, el Xerox Palo Alto Research Center, el Center for
Computable Economics de la Universidad de California (UCLA - EUA), el International
Institute for Applied Systems Analysis (IIASA, Austria), el Center for Non Linear Studies
del Laboratorio de Los Alamos (EUA),y la Bionomic Network, etc.
Antecedentes:
Investigaciones recientes realizadas en estos temas Redes neuronales para procesos
cognitivos:
Recuerdos y Memorización en redes neuronales modulares. ` (R.P.J. Perazzo (CEA-UBA),
S.L.Reich (CEA-UBA), Tesis de licenciatura de A. Chernomoretz (Estud. FCEN-UBA))
Este proyecto se inició como una colaboración con la Universidad de Roma. Se realizó un
modelo de memorias semánticas, entendiendo que cada módulo de la red permite codificar
un atributo del recuerdo que abarca varios módulos de la memoria. Se ha finalizado un
trabajo en el que se estudió una red compuesta por dos módulos centrando el estudio en la
posibilidad de renormalizar las eficacias sinápticas entre módulos diferentes compensado
de ese modo una intensa dilución de las mismas.
Se está iniciando su extensión a estructuras modulares más complejas con el objeto de
modelar el vínculo entre arreas de la corteza con especializaciones funcionales muy
diferentes. Esta extensión constituirá el trabajo de tesis de licenciatura de Ariel
Chernomoretz. Este trabajo se inició en Junio 1995 y se completará antes del fin del primer
semestre de 1996.
Redes neuronales artificiales
Ha habido mucha publicidad acerca de la habilidad de las redes neuronales artificiales para
aprender y generalizar. En realidad, las redes neuronales mas comunmente usadas, llamadas
perceptron multicapa, no son mas que modelos discriminantes y de regresión lineal que
pueden ser implementados con software estandar para estadística. Un perceptrón representa
la unidad básica de una red neuronal tipo perceptrón multicapa. En pocas palabras, un
perceptrón multicapa es un "aproximador universal", es decir que pueden ser usados en
aplicaciones donde no se tiene mucho conocimiento sobre la relación entre las entradas
(variables independientes en estadística) y las salidas (variables dependientes).
Con un pequeño número de neuronas en la capa escondida (un perceptrón multicapa esta
formado por una capa de neuronas de entrada, una de neuronas
de salida y una o varias capas de neuronas intermedias o escondidas) un Perceptrón
multicapa (MLP) es un modelo paramétrico que provee una alternativa útil de regresión
polinomial. Las redes neuronales artificiales son usadas principalmente de tres maneras :
para modelizar los sistemas nerviosos biologicos y la "inteligencia" como procesadores
adaptativos de señales para aplicaciones en tiempo real implementados en hardware como
métodos analíticos de datos
En el caso del análisis de datos, las redes neuronales "aprenden" de una forma similar a
como los algoritmos en estadística estiman. Los algoritmos estándar de redes neuronales
son ineficientes porque están diseñados para ser implementados en computadores
masivamente paralelos y en realidad son ejecutados en máquinas secuenciales como un
simple PC. En el caso de los algoritmos no supervisados, generalmente se utiliza una
medida de similitud entre las entradas y los pesos de la red.
Comunmente se usa la distancia Euclidiana. Definiendo ahora esta distancia como entrada a
la red, una red competitiva se asimila al método k-means clustering. Algunos modelos
como ART (Adaptive Resonance Theory) que están basados explicitamente de la
neurofisiología no tienen ningún modelo estadístico paralelo. Las redes neuronales
artificiales y la estadística no son metodologías que compiten entre si para el análisis de
datos. Existe un considerable traslape entre ambas disciplinas. Mejor comunicación entre
ambos campos, estadística y redes neuronales los beneficiaría a ambos. Referencias [1]
Warren S. Sarle, Neural Networks and Statistical Models, SAS Institute, NC, USA
Redes neuronales artificiales
Las redes neuronales ayudan a los ingenieros a crear modelos de los procesos empleando
datos históricos (que residen en las bases de datos en tiempo real como el PI). Los modelos
predicen cómo responderá el proceso a diferentes entradas y condiciones operativas.
También pueden ser determinadas las condiciones operativas óptimas con redes neuronales
formuladas en forma apropiada. Los modelos identificados empleando redes neuronales
pueden ser empleados en estudios fuera de línea o instaladas en línea para proporcionar
detección temprana de problemas en los procesos y determinar los setpoints que optimicen
continuamente la rentabilidad de los mismos.
Las redes neuronales traen a la vida a los datos, ayudando a revelar los factores más
importantes que afectan a la calidad y rendimientos. Este conocimiento puede ser
empleado, a menudo, para realizar mejoras que requieren muy poca o nula inversión de
capital.
Las áreas generales de utilización potencial de las redes neuronales son las siguientes:
Control de Calidad, Sensores Inferenciales y Reducción de Modelos. En la economía
globalizada de hoy en día, el gerenciamiento de la calidad en tiempo real es una aplicación
de vital importancia, pero los ensayos de calidad raramente están disponibles sin retardos y
usualmente son onerosos. Los modelos basados en redes neuronales proporcionan medidas
“virtuales” en tiempo real, permitiendo acciones de control rápidas para mantener la calidad
en el objetivo deseado. Los modelos pueden ser obtenidos no sólo a partir de los datos de
planta y laboratorio sino de datos generados con corridas de modelos de simulación
rigurosos (desarrollados, por ejemplo, en HYSYS). Este último procedimiento se conoce
como “reducción de modelos”.
Optimización de Procesos. El valor de la optimización basada en modelos está bien
probado pero, en general, los modelos analíticos de un proceso pueden ser muy difíciles de
obtener. Al emplear redes neuronales en conjunto con su capacidad de optimización en
línea y en tiempo real, puede ser posible obtener el mayor potencial económico de un
proceso.
Mantenimiento Predictivo y Seguridad. Los modelos basados en redes neuronales pueden
ser empleados para monitorear la performance de máquinas y equipos. Con ellos se pueden
detectar tempranamente corrimientos o errores en los modelos operativos o sensores
permitiendo a los ingenieros corregir los problemas antes que devengan en incidentes
mayores. Se puede mejorar, en consecuencia, la disponibilidad de plantas y equipos. El
monitoreo continuo del contenido de emisiones (CEM, Continuous Emissions Monitoring)
de NOx, CO2, SO2 en los gases de escape de hornos y calderas es una aplicación típica en
esta área.
Validación de Sensores. La deriva progresiva y/o falla abrupta de las señales de sensores
son la fuente principal para paradas de planta n planeadas y producción de productos fuera
de especificación. Con los modelos basados en redes neuronales es posible seguir los
valores de los sensores y generar alarmas cuando las medidas provenientes de los sensores
físicos no están de acuerdo con los valores inferidos para los mismos. El valor inferido
puede ser empleado también como línea de base en los casos en que el instrumento es
recalibrado o reparado.
Predicción y Estimación. El futuro puede ser predicho dentro de la precisión que dan los
modelos basados en comportamientos. Las redes neuronales pueden aprender los modelos
óptimos, adaptados empleando los últimos datos medidos. Los ingenieros pueden emplear
estas predicciones para estimar las demanda de mercados de corto plazo, predecir estados
futuros del proceso o aún condiciones meteorológicas que afecten a las emisiones e
impacten sobre la vecindad de la planta.
Algunas otras aplicaciones y usos de redes neuronales:
Uso de redes neuronales para análisis de señales de ensayos no destructivos de materiales
(R.P.J. Perazzo (CEA-UBA), E. Altschuler, A.Pignotti (FUDETEC, Org Techint),
S.L.Reich (CEA), H.Gavarini(CONICET))
El estudio se orientó al análisis de peligrosidad de fallas en las paredes de tubos sin costura
que fabrica la empresa SIDERCA. Estas fallas son regularmente identificadas
automáticamente mediante el método de flujo magnético disperso. Esquemáticamente este
método consiste en someter el tubo a un campo magnético estático externo. La ocurrencia
de una grieta en la pared del tubo produce una inhomogeneidad local del campo cuya
detección permite establecer la ubicación y potencial peligrosidad de la falla por la
intensidad del potencial inducido en el sistema de medición. El proyecto completó una
primera etapa (1993/94) en la que se exploraron diversas posibles aplicaciones de redes
para este tipo de ensayo, basándose en el concepto que mediante el uso de redes es posible
efectuar un análisis de más parámetros que la simple intensidad de la señal. Este desarrollo
(1994/95) dio lugar a un trabajo que se publicó en ``Insight'' (``British Journal for Non
Destructive Testing''). Este método significa una mejora dramática respecto de los métodos
tradicionales aun cuando requiere el rediseño de los sistemas de detección de fallas. El
trabajo continuó con un estudio más detallado de la factibilidad de este nuevo diseño de los
sistemas que operan en la planta. Para ello se simuló de una manera más precisa el proceso
de medición/detección introduciendo prámetros que pueden asociarse a la resolución finita
del detector. Este trabajo ya ha sido finalizado. Una parte del mismo fue aceptada en la 14th
World Conference on Non Destructive Testing. Una versión ampliada se enviará para su
publicación en ``Insight''.
Sistemas Adaptativos (R.P.J. Perazzo (CEA-UBA), A.Schuschny (Becario) CEA-UBA):
Se desarrolló un modelo de una red neuronal adaptativa consistente en un autómata
booleano con el que se simuló un proceso evolutivo utilizando algoritmos genéticos. Con
estos elementos se intentó reproducir el proceso que da lugar a la aparición de ciclos
circadianos. éstos son un elemento evolutivo común a casi todas las especies y es por
consiguiente una reliquia evolutiva extremadamente antigua. El modelo permitió establecer
que la aparición de dichos ciclos no surgen de un proceso enteramente pasivo sino que debe
actuar sobre un sistema con una ``inercia'' propia - una resistencia al cambio - que deriva de
su propia complejidad interna. El modelo permite reproducir los resultados cualitativos que
tienen lugar en vuelos transmeridianos y en experimentos espeleológicos.
Computación Cuántica (R.P.J. Perazzo (CEA-UBA),J.P.Paz (FCEN-UBA) y C.Miquel
(Estud. FCEN-UBA) (tesis de licenciatura)) Toda computación debe realizarse en algún
sistema físico, sea éste un trozo de papel, un ábaco, o el mismo cerebro. La teoría de la
computabilidad supone que tal sistema debe obedecer a las leyes de la física clásica. Si esta
hipótesis se extiende para englobar a sistemas cuánticos surge la posibilidad de un
paralelismo intrínseco en el procesamiento. Dicho modo de procesamiento permite, al
menos en teoría, encarar la solución en tiempos polinomiales de ciertos problemas cuya
complejidad crece exponencialmente con la cantidad de datos de entrada. Hallar los
factores primos de un número es un problema de este tipo que es relevante por su
importancia en la criptografía. En este trabajo se implementó el algoritmo de Shor para este
problema en términos de compuertas lógicas reversibles, paso éste que permite
implementarlo en un sistema de cómputo cuántico. El trabajo fue aceptado en Phys. Rev.
Simulación numérica de sistemas económicos.
Inflación y relajamiento al equilibrio (R.P.J. Perazzo (CEA-UBA), S.L.Reich (CEA-UBA),
M. Virasoro (Univ Roma 1 e ICTP Trieste), J.Schvarzer (CISEA-CEA))
En estos trabajos se describe un sistema económico como una red de agentes interactuantes
que producen bienes y se los venden entre si. Cada agente regula su precio y producción en
función de sus interacciones con los demás agentes. Se han modelado de esta manera
procesos inflacionarios y de relajamiento al equilibrio. El trabajo ha sido presentado en un
Taller de Física y Economía del ``Santa Fe Institute'' (USA, New Mexico) y ha sido
conferencia invitada en la First International Conference on Complex Systems in
Computational Physics, Bs.As., Oct. 1993).
Fijación de precios en un modelo esquemático de aprendizaje inductivo (R.P.J. Perazzo
(CEA-UBA), A. Schuschny (CEA-UBA), D.Heymann (CEPAL y FCE-UBA)
Se ha desarrollado un modelo de agentes adaptativos que interactúan fijando precios en un
esquema competitivo. El modelo posee diversas variantes: se estudia el caso de una
proveeduría y un conjunto de clientes que pueden recurrir a un proveedor externo con un
precio de referencia fijo, una proveeduría con una clientela idéntica a la anterior salvo por
el hecho que debe incurrir en una costo de búsqueda de la alternativa de precio mínimo y
finalmente dos proveedurías que deben repartirse una clientela que busca optimizar el
precio de su compra y puede concurrir a un proveedor externo con un precio de referencia
fijo. Tanto clientes como proveedores fijan su estrategia futura de compra o de precios
basados en sus experiencias pasadas, validando o modificando sus hipótesis acerca del
futuro comportamiento del resto del sistema. El modelo permite estudiar el proceso de
relajamiento al equilibrio, su robustez y también se estudia la emergencia de clientelas
cautivas. El caso de dos proveedurías permite estudiar equilibrios dinámicos colusivos entre
los proveedores así como comparar con lo que se sabe de sistemas duopólicos. También se
puede hacer un estudio ``empírico'' de la validez y aplicabilidad de teoría de juegos a la
competencia de ambas proveedurías por la masa de clientes. Este trabajo ha sido enviado y
aceptado en la Conferencia Internacional de economía computacional en Ginebra, Suiza,
1996.
Breve Historia de la Redes Neuronales
Historia De Redes Neuronales Artificiales
Los intentos por imitar el funcionamiento del cerebro han seguido la evolución del estado
de la tecnología. Por ejemplo, al finalizar el siglo 19 se le comparó con la operación de la
bomba hidráulica; durante la década de 1920 a 1930 se intento utilizar la teoría de la
conmutación telefónica como punto de partida de un sistema de conocimiento similar al del
cerebro. Entre 1940 y 1950 los científicos comenzaron a pensar seriamente en las redes
neuronales utilizando como concepto la noción de que las neuronas del cerebro funcionan
como interruptores digitales (on - off) de manera también similar al recién desarrollado
computador digital. Así nace la idea de "revolución cibernética" que maneja la analogía
entre el cerebro y el computador digital.
1943 Teoría de las Redes Neuronales Artificiales
Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el
funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí,
para experimentar ejecutando operaciones lógicas. Partiendo del menor suceso psíquico
(estimado por ellos): el impulso todo/nada, generado por una célula nerviosa.
El bucle "sentidos - cerebro - músculos", mediante la retroalimentación producirían una
reacción positiva si los músculos reducen la diferencia entre una condición percibida por
los sentidos y un estado físico impuesto por el cerebro.
También definieron la memoria como un conjunto de ondas que reverberan en un circuito
cerrado de neuronas.
1949 Conductividad de la sinápsis en las Redes Neuronales.
Seis años después de que McCulloch y Pitts mostraran sus Redes Neuronales, el fisiólogo
Donald O. Hebb (de la McGill University) expuso que estas (las redes neuronales) podían
aprender. Su propuesta tenia que ver con la conductividad de la sinápsis, es decir, con las
conexiones entre neuronas. Hebb expuso que la repetida activación de una neurona por otra
a través de una sinápsis determinada, aumenta su conductividad, y la hacia más propensa a
ser activada sucesivamente, induciendo a la formación de un circuito de neuronas
estrechamente conectadas entre sí.
1951 Primera Red Neuronal
El extraordinario estudiante de Harvard, Marvin Minsky conoció al científico Burrhus
Frederic Skinner, con el que trabajó algún tiempo ayudándole en el diseño y creación de
máquinas para sus experimentos. Minsky se inspiró en Skinner para gestar su primera idea
"oficial" sobre inteligencia artificial, su Red Neuronal. Por aquel entonces entabló amistad
con otro brillante estudiante, Dean Edmonds, el cual estaba interesado en el estudio de una
nueva ciencia llamada Electrónica.
Durante el verano de 1951, Minsky y Edmonds montaron la primera máquina de redes
neuronales, compuesta básicamente de 300 tubos de vacío y un piloto automático de un
bombardero B-24. Llamaron a su creación "Sharc", se trataba nada menos que de una red
de 40 neuronas artificiales que imitaban el cerebro de una rata. Cada neurona hacia el papel
de una posición del laberinto y cuando se activaba daba a entender que la "rata" sabia en
que punto del laberinto estaba. Las neuronas que estaban conectadas alrededor de la
activada, hacían la función de alternativas que seguir por el cerebro, la activación de la
siguiente neurona, es decir, la elección entre "derecha" o "izquierda" en este caso estaría
dada por la fuerza de sus conexiones con la neurona activada. Por ejemplo, la "rata"
completaba bien el recorrido eligiendo a partir de la quinta neurona la opción "izquierda"
(que correspondería a la sexta), es entonces cuando las conexiones entre la quinta y sexta se
hacen más fuertes (dicha conexión era realizada por el piloto automático), haciendo desde
este momento más propensa esta decisión en un futuro. Pero las técnicas Skinnerianas (que
eran las que se habían puesto en funcionamiento en esta red neuronal) no podrían llevar
muy lejos a este nuevo engendro, la razón pasa porque esto, en sí, no es inteligencia, pues
la red neuronal nunca llegaría a trazar un plan.
Después de su Red Neuronal, Minsky escribió su tesis doctoral acerca de esta, en ella
describía "cerebros mucho mayores", exponiendo que si se realizaba este proyecto a gran
escala, con miles o millones de neuronas más y con diferentes censores y tipos de
retroalimentación… la máquina podría ser capaz de razonar, mas el sabia que la realización
de esta Red Neuronal era imposible y decidió buscar otra forma de crear inteligencia…
Cronología y Línea histórica.
La historia de las RNAs puede ser dividida en varios periodos marcados por los siguientes
importantes sucesos:
Primeros Inicios.
1940s: Inicio de una nueva vía de investigación a partir de dos ramas confluyentes: la
neurología y las ciencias computacionales.
1943: McCulloch y Pitts describen el cálculo lógico de las redes neuronales.
1948: Wiener publica "Cybernetics" donde describe importantes conceptos en los campos
de control, comunicaciones y procesado estadístico de las señal.
1949: Hebb publica "The Organization of Behaviour", donde se describe por vez primera
una regla de aprendizaje de modificación de los pesos sinápticos en una RNA.
Periodo emergente y prometedor.
1950s: Se dan grandes avances en el estudio de las memorias asociativas.
1952: Ashby publica "Design for a Brain: The Origin of Adaptative Behaviour", donde se
establece que el comportamiento adaptativo se da a través del aprendizaje y no es innato.
1954: Minsky publica "Theory of Neural-Analog Reinforcement Systems and Its
Applications to the Brain-Model Problem".
1956: Rochester, Holland, Habit y Duda hacen el primer intento de simulación de las
teorías de Hebb. Uttley demuestra que una red neuronal es capaz de clasificar conjuntos de
muestras binarias en sus respectivas clases.
1958: Rosenblatt publica trabajos sobre el perceptrón monocapa junto con su teorema de
convergencia.
1960s: Periodo monopolizado por el perceptrón y sus variantes.
1960: Widrow y Hoff introducen el LMS (Least Mean Square, Algoritmo de Mínimo
Cuadrático), y lo usan para la formulación del Adaline (Adaptive Linear Element).
1961: Steinbuch introduce el concepto de matriz de aprendizaje (La adaptación de los
algoritmos al cálculo matricial ha sido fundamental para la implementación hardware de las
redes neuronales).
1962: Widrow presenta el Madaline (Multiple-Adaline)
1965: Nilsson publica "Learning Machines" que es todavía la mejor exposición acerca de
patrones linealmente separables en hipersuperficies.
1969: Willshaw, Buneman y Lonquet-Higgins publican importantes avances en memorias
asociativas.
Periodo de frustación y descrédito.
1969: Minsky y Papert demuestran las limitaciones del perceptrón monocapa aunque no
presentan ninguna solución. (El principal problema era la asignación de crédito a las
neuronas ocultas de la red). Pasarán alrededor de 10 años hasta su solución con la aparición
del primer algoritmo de aprendizaje robusto para el perceptrón multicapa.
1970s: Son años de desánimo, incentivado por las carencias tecnológicas para la
experimentación y la falta de apoyos financieros.
Periodo de Renovación.
1972: Anderson, Kohonen y Nakano introducen independientemente el concepto de matriz
de correlación. Henry Klopf desarrolla una base para el aprendizaje basada en un principio
de aprendizaje biológico llamado heterostasis.
1973: Von der Malsburg demuestra las teorías auto-organizativas. 1974: Werbos introduce
la idea general del aprendizaje con back-propagation (Se trata de un algoritmo de
aprendizaje más robusto y potente a los empleados hasta entonces basado en la
retropropagación de los errores generados en los nodos de la capa de salida de un
perceptrón multicapa.), aunque pasarán años hasta que su uso se popularice.
1980: Grossberg postula un nuevo principio de auto-organización, base para el nacimiento
de otro tipo de teoría en el campo de las redes neuronales: la ART o Teoría de Resonancia
Adaptativa.
Periodo de Renacimiento.
1980s: Expansión del conocimiento en forma de conferencias, libros, publicaciones, cursos,
aplicaciones en la industria y las finanzas...
1982: Hopfield introduce otro tipo de redes basadas en la idea de la función energía, un
nuevo camino en la comprensión del comportamiento de las redes recurrentes con
conexiones sinápticas simétricas.
1983: Cohen y Grossberg establecen un principio general para el diseño de una memoria
direccionable por contenido.Barto, Sutton y Anderson publican un trabajo en torno al
aprendizaje reforzado de gran interés en cuanto a su aplicación al campo de control.
1986: Rumelhart, Hinton y Williams popularizan el uso del algoritmo de back-propagation.
Rumelhart y McClelland publican "Parallel Distributed Processing: Explorations in the
Microstructures of Cognition".
Actualidad.
1988: Linsker describe un nuevo principio para redes autoorganizativas, y Broomhead y
Lowe describen el uso de RBF o funciones de base radial.
1989: Mead publica "Analog VLSI and Neural Systems" que proporciona una mezcla de
conceptos entre la neurobiología y la tecnología VLSI.
1990s: Las aplicaciones a problemas complejos ante los que las técnicas tradicionales poco
pueden hacer y la integración de RNAs en CIs son las vías más extendidas, sin olvidar los
intentos de enlazar la Lógica Difusa (Fuzzy Logic) con las redes neuronales.
El gran parangón al cerebro humano
Un supercomputador llamado cerebro
El hombre necesita un sistema de proceso de datos de multiple proposito capaz de manejar
gran cantidad de informacion muy distinta y en muy poco tiempo y con el mayor sentido
practico(pero no necesariamente con exactitud), para inmediatamente poder actuar en
concecuencia. Los computadores, en cambio, son altamente especializados con capacidad
para procesar con exactitud informacion muy concreta(en principio solo numeros)
siguiendo unas instrucciones dadas.
El cerebro humano posee mas de diez millones de neuronas las cuales ya están presentes en
el momento del nacimiento conforme pasa el tiempo se vuelven inactivas, aunque pueden
morir masivamente.
Nuestro órgano de pensamiento consume 20 Patios/hora de energía bioquímica, lo que
corresponde a una cucharada de azúcar por hora. Los PC consumen una cantidad
semejante. Las necesidades de oxigeno y alimento es enorme en comparación con el resto
del cuerpo humano: casi una quinta parte de toda la sangre fluye por el cerebro para
aprovisionar de oxigeno y nutrieres. La capacidad total de memoria es dificil de cuantificar,
pero se calcula que ronda entre 10ª12 y 10ª14 bits.
La densidad de información de datos de un cerebro todavía no se ha podido superar
artificialmente y en lo que se refiere a velocidad de transmisión de datos, a pesar de la
lentitud con que transmite cada impulso aislado, tampoco esta en desventaja, gracias a su
sistema de proceso en paralelo: la información recogida por un ojo representa 10ª6 bits por
segundo.
Según todos los indicios el cerebro dispone de dos mecanismos de almacenamiento de
datos: la memoria intermedia acepta de cinco a diez unidades de información, aunque solo
las mantiene durante agudos minutos. La memoria definitiva guarda las informaciones para
toda la vida, lo que no significa que nos podamos acordar siempre de todo. La memoria
inmediata trabaja como una espacie de cinta continua: la información circula rotativamente
en forma de impulsos eléctricos por los registros. El sistema es comparable a la memoria
ram de un PC, en la que la información tiene que ser refrescada continuamente para que no
se pierda. En cambio, la memoria definitiva parece asemejare mas bien a las conocidas
memorias de celdillas de los computadores. Se cree que esta memoria funciona gracias a
formaciones químicas de las proteínas presentes en el cerebro humano.
Diferencias entre el cerebro y una computadora
Cerebro Computador
Sistema de datos de múltiple propósito capaz de tratar gran cantidad de información en
poco tiempo pero no nesesariamente con exactitud.
Sistemas altamente especializados con capacidad para procesar información muy concreta,
siguiendo unas instrucciones dadas.
La frecuencia de los impulsos nerviosos puede variar.
La frecuencia de transmisión es inalterable y esta dada por el reloj interno de la maquina.
Las llamadas sinapsis cumple en el cerebro la función simultánea de varias compuertas
(and, or, not etc.)
Las compuertas lógicas tienen una función perfectamente determinada e inalterable.
La memoria es del tipo asociativo y no se sabe dónde quedara almacenada.
La información se guarda en posiciones de memoria de acceso directo por su dirección.
Los impulsos fluyen a 30 metros por segundo.
En el interior de una computadora los impulsos fluyen a la velocidad de la luz.
Similitudes entre el cerebro y una computadora
Ambos codifican la información en impulsos digitales.
Tanto el cerebro como la computadora tienen compuertas lógicas.
Existen distintos tipos de memoria.
Los dos tienen aproximadamente el mismo consumo de energía
Introducción a las proyecciones de las redes neuronales
El Futuro.
Hasta ahora el control de un entorno electrónico o incluso uno electromecánico, (ej.
Manejar una silla de ruedas), ha sido utilizando un solo tipo de señal, sea que provenga de
un músculo, del ojo o de ondas cerebrales.
También somos nosotros quienes debemos entrenarnos para controlar nuestros impulsos y
luego poder mover o ejecutar la acción deseada
Quizá el futuro se encuentre en sistemas que sean capaces de traducir muchos y diferentes
tipos de señales, y así poder "leer" lo que nosotros deseamos hacer, dejando al sistema y no
a nosotros, el trabajo de entrenarse.
En cuanto a las aplicaciones quizá se logren versiones comerciales para manejar entornos
informáticos, y así a través de los computadores controlar, medios de transporte,
electrodomésticos, equipos médicos y militares, el campo de aplicación es enorme.
El concepto de Global Brain
Para entender totalmente la importancia de los desarrollos de hoy en el área de las
comunicaciones, necesitamos remontarnos a los cambios sociales que han ocurrido durante
los últimos doscientos años. En este período corto, la rapidez del desarrollo de la actividad
humana se ha alterado significativamente.
Antes de al decimoctavo siglo, la mayoría de la población (aproximadamente 90 por ciento)
era empleado en la producción de comida--la agricultura y pesca, por ejemplo, y su
distribución. Aunque este porcentaje había quedado constante por centenares de años, el
número real aumenta a la misma proporción que la propia población. Con el advenimiento
de la Revolución Industrial, sin embargo, la aplicación creciente de tecnología al cultivar
llevó a un retardo en la proporción de crecimiento del empleo agrícola, y la curva empezó a
agacharse en la forma de "S" característica.
Del principio del decimonoveno siglo las naciones más desarrolladas han mostrado un
aumento firme en el número de las personas empleadas en la industria y la fabricación, un
cambio del proceso de comida hacia el proceso de minerales y energía. Las estadísticas del
empleo para E.E.U.U. muestra que el
crecimiento del empleo industrial era considerablemente más rápido que el del empleo
agrícola, doblandose una vez cada 16 años, y por 1900 igualandose el número de las
personas (aproximadamente 38 por ciento) que era empleado en cada sector. Por lo que se
refiere al empleo, por consiguiente, esta fecha podría tomarse para marcar el principio de la
Edad Industrial en E.E.U.U.
Durante los próximos setenta años, la industria era la actividad dominante en el E.E.U.U.
Durante las últimas décadas, sin embargo, la invención de computadoras y el aumento
consecuente en la capacidad de procesar la información se ha provocado otro cambio. La
aplicación firme de tecnología y automatización a la industria causó que la proporción de
crecimiento de empleo industrial se aletargue, dando lugar una vez más a la curva "S". Al
mismo tiempo el número de las personas empleadas en información en sus varias
manifestaciones, imprentas, publicidad, la contabilidad, la banca, el periodismo, la
TELEVISIÓN, la radio, las telecomunicaciones así como la informática y sus muchas
ocupaciones auxiliares, ha estado creciendo a una proporción exponencial. El tiempo que se
tarde en doblar su proporción puede ser ahora tan corto como seis años.
A mediados de los 70s el número de las personas en E.E.U.U. comprometida en el proceso
de la información, había alcanzado a aquéllos comprometidos en la industria, el proceso de
energía y materia. Desde ese tiempo, el procesado de información ha sido nuestra actividad
dominante. Habíamos entrado en la "Edad de la Información."
Aunque estos desarrollos se refieren específicamente a E.E.U.U., pueden encontrarse los
cambios paralelos en la mayoría de las naciones más desarrolladas. Las naciones menos
desarrolladas muestran las tendencias similares, pero ellos se retrasan detrás de los
desarrollados en distintos grados. Estos retrasos, sin embargo, disminuirán ciertamente con
el tiempo.
Mientras un país en vías de desarrollo puede estar cincuenta años detrás del presente
alcanzando la fase en que la actividad industrial se pone dominante, estará sólo diez años
detrás cuando hace la transición a una sociedad de información. Japón es un ejemplo de un
país que, a pesar de una salida tardía, tiene alcanzado este umbral definitivamente. Corea
del Sur se movió de la Edad Agrícola a la Edad de la Información en sólo catorce años.
Muchas de las naciones del Medio Oriente, las naciones ricas del petróleo, como Kuwait y
Arabia Saudita, también están dando pasos largos y rápidos. China, aunque todavía
predominantemente agrícola, puede pasarse sólo un tiempo corto en la Edad Industrial
antes de cambiar a una sociedad de información. Y puede ser que otros países se salten la
Edad Industrial completamente, por lo menos hasta donde el punto en que el empleo se
encuentra mayoritariamente concentrado allí.
Los Eslabones del idioma
Como cada vez más de las naciones del mundo se mueven a la Edad de la Información, la
tecnología de las comunicaciones y el procesamiento de la información afectará a la raza
humana dramáticamente, mientras más nos integremos a través de la red de sinapsis
electrónicas, el mundo de las redes neuronales.
Si nosotros examinamos la historia humana, podemos ver que esta tendencia hacia una
vinculación progresiva de humanidad parece haber estado siguiendose durante milenios.
La súbita ola de tecnología de información en el presente, puede verse como el fruto de
millones de años de esfuerzo humano.
El primer gran paso hacia la interconexión vino con el desarrollo del idioma verbal. Esto
llevó a un cambio profundo y fundamental de la manera que nosotros ganábamos el
conocimiento sobre el mundo. Todas las otras criaturas (con la posible excepción de
ballenas y delfines) aprende principalmente de su propia
experiencia de vida. Un perro aprende a través de lo que le pasa en su propia vida, no se
beneficia significativamente de las experiencias de otros perros del el mundo. Pero con el
advenimiento de idioma simbólico los seres humanos podrían empezar a compartir las
experiencias y para no sólo aprender de sus propias vidas sino también de la de otros.
Éste fue un salto evolutivo mayor, tan significante quizás como el aparecimiento de la
reproducción sexual hace 2 mil millones años. Dos células podrían juntarse e intercambiar
una porción de información genética de sus datos hereditarios, un descubrimiento que,
nosotros hemos visto, permite a las nuevas especies avanzar miles de veces más rápido.
Asimismo, a través del idioma, los seres humanos pueden intercambiar sus propias
experiencias y aprendizajes, y el resultado ha sido un salto similar en la proporción de
evolución.
El idioma nos había permitido cambiar de la evolución biológica a la evolución mucho más
rápida de la mente. No sólo había hecho que nuestra habilidad de aprender de los demás
refuerce nuestras vidas individuales, también nos llevó en el nuevo escenario de la
evolución de grupo. Nosotros nos habíamos vuelto un sistema de aprendizaje colectivo,
construyendo un cuerpo colectivo de conocimiento lejos excedió la experiencia de
cualquier individuo, pero que sin embargo, cualquiera de nosotros no pudo acceder en el
principio.
A través del idioma nosotros habíamos hecho el paso de los organismos aislados a un
organismo colectivo, muy parecido a como hace mil millones años las células se juntaron y
vinieron a hacer las primeras criaturas multicelulares.
La proporción de crecimiento de este sistema de aprendizaje colectivo se reforzó
grandemente por una serie de descubrimientos en la tecnología de información. Hoy
nosotros tendemos a pensar en tecnología de información por lo que se refiere a las
computadoras y telecomunicaciones, pero éstos son la
consecuencia de una serie entera de descubrimientos en tecnologías de información que se
fechan en los albores de la civilización.
El primer gran descubrimiento fue la invención de la escritura, hace unos diez mil años.
Antes de escribir, el conocimiento se traspasó principalmente por la palabra ,de boca en
boca, un proceso que era muy abierto a las distorsiones, omisiones y equivocaciones. El
Escribir hizo posible grabar nuestras historias
personales y culturales en un formulario más fiable y pasarlos a las generaciones futuras. El
descubrimiento tecnológico del papel hizo a los datos mucho más fáciles de transportar.
Nosotros podríamos compartir nuestro conocimiento con personas en tierras distantes,
uniéndose las comunidades humanas.
El advenimiento de la imprenta en el siglo XV aumentó la habilidad de la humanidad de
diseminar la información mucho más allá. Nunca más cada copia de un manuscrito tenía
que ser reproducida a mano, un proceso que era tanto lento como asiduo al error, podrían
fabricarse miles de copias del mismo original, y casi simultáneamente. Alrededor de 80
millones de libros se produjeron en los primeros cincuenta años después de la invención de
la imprenta. Las filosofías de los griegos y romanos eran distribuídas, la Biblia
se hizo extensamente accesible, y a través de varios manuales, los libros de habilidades, se
hizo posible la expansión de talleres y gente instruida en oficios, pavimentando el camino
para el Renacimiento.
El próximo gran descubrimiento ocurrió a mediados del decimonoveno siglo. Éste fue el
desarrollo de la comunicación eléctrica en la forma de telégrafo, y después de teléfono. El
tiempo tomado para transmitir un mensaje dejó de ser de días o semanas y pasó a ser de
minutos y después de fracciones de segundo.
Cincuenta años después otro descubrimiento ocurrió a través del uso de ondas radiofónica
como medio de transmisión. Esto libró a las personas de la necesidad a unirse físicamente
por un cable y simultáneamente hizo posible transmitir un mensaje a un número grande de
personas. Desde entonces, la radio y su vástago, televisión que literalmente nos dio la
habilidad de "ver a una distancia" se ha extendido
rápidamente, permitiéndole a la persona que fuera un testigo ocular de eventos que ocurren
alrededor del mundo.
Al mismo tiempo en que la radio y la televisión estaban extendiéndose por el planeta, otro
desarrollo igualmente importante en la tecnología de información estaba ocurriendo: los
computadores.
La Revolución Digital
La primera computadora se construyó durante la Segunda Guerra Mundial, para ayudar a
los servicios de inteligencia en la tarea compleja de romper códigos sofisticados. Al mismo
tiempo allí se había levantado la necesidad creciente de ser capaz de realizar cálculos
complejos, mucho más rápido que lo que podría hacerse por el papel, lápiz y la calculadora.
Para cumplir estas necesidades, los técnicos diseñaron las calculadoras electrónicas, a
menudo el tamaño de una habitación, dando el nacimiento a los computadores en los años
cincuenta.
Aunque embarazosos y lentos comparados con los actuales, estos dispositivos
representaron no obstante un salto grandisimo en lo que se refiere al poder procesar la
información. Durante los años sesenta, se avanzó en la capacidad de proceso y la velocidad
del mismo.
Simultáneamente el tamaño físico de los computadores se encogió notablemente. El
microprocesador, o chip como normalmente se llama, representó una revolución
gigantesca. Con menos de un cuarto de pulgada de tamaño, el chip de 1990 contuvo más
poder de informática que todas las computadores de 1950 reunidos, y esta capacidad se ha
estado doblando todos los años. Además de las muchas ventajas de su tamaño diminuto, el
consumo de energía de los chip es asombrosamente bajo. El mejor computador de 1970 usó
más energía que 5000 calculadoras de bolsillo de la misma capacidad de información
inventadas después de diez años. La proporción de información/energía ha estado
aumentando firmemente. Podemos hacer cada vez más, con cada vez menos.
Al mismo tiempo el costo de procesar información ha estado cayéndose dramáticamente. El
poder de computo es a menudo medido en millones de instrucciones por segundo (MIPS).
Los primeros computadores transistorizados de los años cincuenta (IBM 7090, por ejemplo)
manejó aproximadamente 1 MIP, y costó un millón de dólares. Cuando los computadores
de circuitos integrados de los años sesenta, como el DEC'S PDP 10, manejaron 10 MIPS, el
precio por MIP se había caído a $100,000. El Apple II con el que anunciaron la revolución
del computador personal a mediados de los 70s, trajo el costo a diez mil dólares por MIP.
Por 1990 el costo promedio de un PC estuvo alrededor de $1000 por MIP, mientras los
supercomputadores como el Cray 3, operando a 100,000 MIPS costaron aproximadamente
$10 millones, o $100 por MIP.
En 1994 el poder de la informática personal estaba también próximo a $100 por MIP. Y
continuará desplomándose el futuro. En el año 2005 usted podrá probablemente comprar el
poder informático equivalente de un millón de dólares del IBM 7090 por cinco dólares o
menos.
Considerando que en 1970 los computadores fueron usadas casi solamente por instituciones
grandes como los gobiernos y corporaciones, el microprocesador, un microchip que es un
computador en sí mismo, ha hecho posible que la tecnología de computadores y datos estar
disponible, potencialmente, a cualquiera en el planeta sin agotar el planeta de sus recursos
de energía vitales. Si los cambios comparables hubieran sido hecho en los variados aspectos
del automóvil durante los últimos veinte años, un Rolls Royce costarían cincuenta centavos.
Sería de menos de una décima de una centímetro de largo, tendría un consumo de gasolina
de 10 millones de kilómetros por litro, viajaría a cien mil km por hora, y nunca tendría
necesidad de servicio técnico.
Estos autos diminutos también serían tan comúnes que incluso no sería impresionante
hablar de esto. En los 90s había más de 100 millones de computadores personales en el
mundo, y ellos estaban rodando fuera de las líneas de la producción a razón de más de
100,000 por día.
La RED
Otro desarrollo significativo ha sido la vinculación directa de computadores.
Los primeros computadores eran unidades independientes, sólo actuando recíprocamente
con sus operadores humanos (no había ningún sistema operativo por esos días). A finales
de los 60s, sin embargo, los computadores se pudieron comunicar directamente entre sí. En
1969 la Agencia de Proyectos de Investigación Avanzada americana (ARPA) empezó un
experimento para unir
computadores por distancias largas para que ellos pudiesen intercambiar archivos y ejecutar
programas. La red creció lentamente al principio, pero luego fue explosivo.
Durante la próxima década un nuevo computador se adhirió al término de "ARPAnet" cada
20 días.
A mediados de los 70s otras redes habían surgido, y empezó surgir un interlink con
ARPAnet. Esta nueva red de redes se volvió conocida como la "interred" y pronto sólo
"Internet". La red, como también se llama a veces, continuó extendiéndose. Por 1994
Internet había crecido en un tejido macizo de redes con más de dos millones de
computadoras centrales y un estimó cuarenta millones de usuarios--y su tamaño se estaba
doblando todos los años.
El número de BBSs (BlackBoards), los lugares en la red dónde las personas pueden acceder
a datos en asuntos especializados, tener discusiones, y encontrarse a otros con los mismos
intereses, a crecido espantósamente. En 1987 había 6000 tablones de anuncios. Por 1994
había cerca de 60000, y el número se estaba doblando cada dieciocho meses.
Encima del mismo período los servicios comerciales como Compuserve, America Online, y
Prodigy han crecido también rápidamente, trayendo miles de bases de datos, compras por
computador, periódicos, revistas, cursos educativos, viajes aéreos y mandando correo
electrónicamente directamente en millones de casas.
Tan prodigiosa tasa de crecimiento no puede continuar lejos en el futuro. Si internet
continua doblándose todos los años, alcanzaría más de mil millones personas por 2002 qué
es más del número probable de las personas capaces de permitirse el lujo de un computador
personal y una cuenta de Internet. Entonces la curva de crecimiento empezará a convertirse
en una "S". El crecimiento extenso de la Red no estará entonces en el número de
conexiones, sino en la versatilidad y riqueza de las mismas.
Como esta red global continúa creciendo y evolucionando, cambia indudablemente de
muchas maneras. Hay muchas conversaciones de las varias crisis y desafíos que enfrentan a
Internet. Hay una congestión creciente, está escaceando el espacio de dirección, el
multimedio está imponiendo contribuciones a sus recursos, todavía está lejos de un uso
fácil, hay problemas serios acerca del retiro y seguridad de datos, y se mercantilizará
inevitablemente cada vez más.
Pero, un sistema en crisis necesariamente no es un sistema agonizante. Las crisis pueden ser
conductos evolutivos importantes que empujan el sistema a los nuevos niveles de
organización, y activan el aparecer de nuevos formas y procesos.
Ya Internet ha demostrado ser capaz de evolucionar en una estructura mucho más compleja
y diversa que lo contemplado por sus creadores originales, y, como nadie puede apagarlo,
continuará evolucionando. Las Nuevas tecnologías, nuevos protocolos de comunicación,
nuevo software y otros desarrollos harán de la red en diez años, algo difícilmente
imaginable hoy en día.
Uniendo Tecnologías
En el corazón de esta proliferación de redes y servicios está la integración de la tecnología
del computador y las telecomunicaciones. La red global del teléfono de cables, fibras y los
eslabones de la radio han puesto la infraestructura para una nueva revolución. Un enchufe
del teléfono en cualquier parte en el mundo, Suecia, México, China, Chile o el polo Sur, ya
no es sólo un punto para atar a un dispositivo para "oír a una distancia", ahora es un nodo
de la red, y puede fácilmente despachar un télex, un fax, un beeper, una terminal, un
computador, un red de computadores, o una combinación de cualquiera de éstos. Agregue a
este la habilidad de enviar las imágenes de videos tan fácilmente como el texto y se tienen
las semillas para la revolución de los medios de comunicación más grande de la vida, la
síntesis de televisión, computadora y teléfono.
En los años venideros no sólo los MIPS serán importantes. Una fibra óptica tiene el
potencial para 25 gigahertz, qué está sobre el volumen de información que fluye por las
líneas telefónicas de E.E.U.U. durante el momento de máximo tráfico en el Día de Madre, o
aproximadamente 1,000 veces más información que todas las frecuencias de radio
combinadas. Todo envasado en la anchura de un pelo humano.
Así como el precio de MIPS se ha caído dramáticamente durante las últimas décadas, tan
también así el precio del bandwidth (capacidad o anchura de transmisión de datos).
George Gilder, el autor de Vida después de la Televisión y Telecosm, ha señalado que cada
revolución mayor ha visto el costo de alguna caída mercantil de un artículo, que luego se ha
puesto casi de libre adquisición en el futuro. Con la Revolución Industrial la fuerza física se
puso casi libre comparado con su costo cuando derivaba de un animal o el músculo
humano. De repente una fábrica podría trabajar 24 horas por día, eso era incomprensible
antes. La fuerza física se puso tan barata que en lugar de tener que economizar en su uso,
podríamos permitirnos el lujo de "gastarlo" en los andadores de mudanza y cepillos de
dientes eléctricos. Hemos visto como el precio de un transistor a caído de un dólar a un
cuarto de milésimo de centavo durante los últimos 30 años. Ya no tenemos que economizar
en el uso de transistores, pero podemos gastarlos en corregir nuestra ortografía, podemos
jugar al solitario, o podemos crear fondos elegantes en nuestra pantalla del computador.
Cuando la revolución de las telecomunicaciones empieza a morder, veremos caer
similarmente al costo de bandwidth.
Cuando sea casi libre, podremos permitirnos el lujo de "gastarlo" también. Nosotros
podremos transmitir la información a través de la red similarmente a cuando nosotros
transmitimos radio y televisión ahora a través del aire.
Desarrollos como éstos parecen estar llevándonos más rápidamente hacia lo que William
Gibson en su libro Neuromancer, ha llamado el ciberespacio: "Una representación gráfica
de datos abstraídos de los bancos de cada computador en el sistema humano. Una
complejidad inconcebible. Líneas de luz en el no-espacio de la mente, racimos y
constelaciones de datos.
En el mundo de Gibson, las personas entran en el ciberespacio alimentando una realidad
virtual generada por computador que despliega información directamente en sus mentes.
¿Ciencia ficción? Sí. Pero también lo era hace cincuenta años un viaje a la luna.
El Surgimiento del Cerebro Global (Global Brain).
La intercomunicación de la humanidad que empezó con el surgir del idioma ha progresado
ahora al punto dónde puede transmitirse la información a cualquiera, en cualquier parte, a la
velocidad de luz. Los billones de mensajes continuamente saliendo de un lado a otro, en un
tejido en una siempre creciente red de comunicación, uniéndose los billones de mentes de
humanidad juntas en un solo sistema. ¿Este Gaia está creciéndo a un sistema nervioso?
El parangón es ciertamente digno de consideración. Ya hemos notado que que hay, muy
aproximadamente, el mismo número de células nerviosas en un cerebro humano como
mentes humanas en el planeta. Y hay también un poco de similitudes interesantes entre la
manera en que el cerebro humano crece y la manera en que la humanidad está
evolucionando.
El cerebro humano embrionario atraviesa dos fases de desarrollo.
La primera es una explosión maciza en el número de células nerviosas. En las ocho
semanas después de la concepción, el número de neuronas explota, aumentando por
muchos millones cada hora. Sin embargo, después de cinco semanas, el proceso reduce la
velocidad, casi tan rápidamente como empezó. La primera fase de desarrollo del cerebro, la
proliferación de células, está ahora completa. En esta fase el feto tiene la mayoría de las
células nerviosas que tendrá para el resto de su vida.
El cerebro procede entonces a la segunda fase de su desarrollo, como los billones de células
nerviosas están aisladas, empieza haciendo las conexiones entre estas, a veces creciendo al
punto de conectar células en el otro lado del cerebro. Desde el nacimiento, una célula
nerviosa típica puede comunicarse directamente con varios miles de otras células. El
crecimiento del cerebro después del nacimiento consiste en la proliferación extensa de
conexiones. Muchas células nerviosas están haciendo las conexiones directas con tantas
otras.
Pueden observarse las tendencias similares en la sociedad humana. Durante los últimos
siglos el número de "células" en el cerebro global embrionario ha estado proliferando. Pero
hoy el crecimiento de la población se está retardando, y al mismo tiempo nosotros estamos
pasando a la próxima fase, la vinculación de los billones de mentes humanas en una sola
red integrada.
La más compleja de nuestras capacidades de telecomunicación globales se muestra en que
la sociedad humana está empezando a parecerse a un sistema nervioso planetario. El
cerebro global está empezando a funcionar.
El Despertar planetario
Este despertar no sólo es relativo a nosotros, puede descubrirse millones de kilómetros
incluso fuera en el espacio. Antes del 1900, cualquier ser curioso bastante para tomar un
"EEG planetario" (es decir, medir la actividad electromagnética del planeta) habría
observado sólo azar, ocurriendo toda actividad naturalmente, como lo producido por el
relámpago. Hoy, sin embargo, el espacio alrededor del planeta se está llenando con
millones de signos diferentes, algunos de ellos transmisiones a grandes números de
personas, algunos de ellos las comunicaciones personales, y la conversación de
computadores que intercambian información. Así como la capacidad de banda de radio
usable se llena, encontramos nuevas maneras de enviar la información, y están utilizándose
los nuevos espectros de energía, como la luz, con el potencial de extender nuestras
capacidades de comunicación más allá.
Con la casi instantánea unión de la humanidad a través de esto, la tecnología de
comunicaciones, y la diseminación rápida y de bajo precio de información, la visión de
Marshall McLuhan del mundo como un pueblo global está volviéndose una realidad
rápidamente. De una cabaña aislada en un bosque en Inglaterra, yo puedo marcar a un
número en Fiji, y toma la misma cantidad de tiempo para mi voz
alcanzar abajo la línea telefónica a Fiji como él hace para mi cerebro para decir a mi dedo
tocar el dial.
Pensando tan lejos como si se estuviera sólo interesado en el tiempo de conexión o para
comunicar, el planeta se ha encogido tanto que las otras células del cerebro global
empiezan a estar tan alejadas entre sí, como las células de nuestro cerebro, y su respuesta
está tan relacionada como la obtenida cuando deseamos utilizar las extremidades de
nuestros propios cuerpos.
Al mismo tiempo como la velocidad de interacción global está aumentando, así mismo la
complejidad. En 1994 la red de las telecomunicaciones mundial tenía mil millones
teléfonos. Todavía esta red, intrincada como podría parecer, representa sólo un fragmento
diminuto de los términos de comunicación en el cerebro, los billones de sinapsis a través de
que las células nerviosas actúan recíprocamente. Según John McNulty, consultor británico,
las telecomunicaciones globales que conectaban una red de computadores de 1975 no era
más compleja que una región del cerebro del tamaño de un poroto. Pero en conjunto la
capacidad del proceso de datos se está doblando cada dos y medio años, y si esta
proporción de aumento se sostiene, la red de las telecomunicaciones global podría igualar el
cerebro en complejidad por el año 2002, pues el año 2000 ya se estableció un símil de
comparación, se alcanzó un grado de complejidad que igualó a la del cerebro humano, así
el 2002 se alcanzaría una plena madurez. Si esto parece ser un desarrollo increíblemente
rápido, es probablemente porque algunos de nosotros podemos asir totalmente cómo las
cosas están evolucionando.
Los cambios que esto traerá serán tan grandes que su impacto total puede estar
perfectamente bien más allá de nuestra imaginación. no más percibimos como individuos
aislados; nos sabremos para ser una parte de una red global rápidamente integrada, las
células nerviosas de un cerebro global despertado.
Conclusiones
Como resultado del diseño y la implementación de Redes Neuronales se puede mejora la
gestión empresarial, optimizar sustancialmente distintos procesos empresariales, donde ya
existe dicha solución "clásica", las redes aportan su alta no linealidad y su gran facilidad en
utilizar datos adicionales, tanto numéricos, como borrosos y/o subjetivos, que en el modelo
clásico no son tenidos en consideración, 0bteniendo así una sustancial mejora de los
resultados con la consiguiente optimización económica.
Además las Redes neuronales nos pueden ayudar a la predicción de mercados de capitales:
bolsa, acciones, fondos de inversión, bonos, renta fija y futuros. Software para el inversor,
club de inversión, ahorro, mercado de valores, renta fija, renta variable. Gestión de riesgo
en la empresa a través de redes neuronales. Optimización de procesos empresariales.
Sustitución de la estadística clásica y de modelos lineales por las redes neuronales en
diversos procesos empresariales. Con las redes neuronales se obtienen resultados que
mejoran sustancialmente diferentes aspectos de la gestión en la empresa.
Las redes neuronales traen a la vida a los datos, ayudando a revelar los factores más
importantes que afectan a la calidad y rendimientos. Este conocimiento puede ser
empleado, a menudo, para realizar mejoras que requieren muy poca o nula inversión de
capital.
Las áreas generales de utilización potencial de las redes neuronales son las siguientes:
Control de Calidad, Sensores Inferenciales y Reducción de Modelos. En la economía
globalizada de hoy en día, el gerenciamiento de la calidad en tiempo real es una aplicación
de vital importancia, pero los ensayos de calidad raramente están disponibles sin retardos y
usualmente son onerosos. Los modelos basados en redes neuronales proporcionan medidas
"virtuales" en tiempo real, permitiendo acciones de control rápidas para mantener la calidad
en el objetivo deseado.
Los modelos pueden ser obtenidos no sólo a partir de los datos de planta y laboratorio sino
de datos generados con corridas de modelos de simulación rigurosos (desarrollados, por
ejemplo, en HYSYS). Este último procedimiento se conoce como "reducción de modelos".
Optimización de Procesos. El valor de la optimización basada en modelos está bien
probado pero, en general, los modelos analíticos de un proceso pueden ser muy difíciles de
obtener. Al emplear redes neuronales en conjunto con su capacidad de optimización en
línea y en tiempo real, puede ser posible obtener el mayor potencial económico de un
proceso.
Mantenimiento Predictivo y Seguridad. Los modelos basados en redes neuronales pueden
ser empleados para monitorear la performance de máquinas y equipos. Con ellos se pueden
detectar tempranamente corrimientos o errores en los modelos operativos o sensores
permitiendo a los ingenieros corregir los problemas antes que devengan en incidentes
mayores. Se puede mejorar, en consecuencia, la disponibilidad de plantas y equipos. El
monitoreo continuo del contenido de emisiones (CEM, Continuous Emissions Monitoring)
de NOx, CO2, SO2 en los gases de escape de hornos y calderas es una aplicación típica en
esta área.
Validación de Sensores. La deriva progresiva y/o falla abrupta de las señales de sensores
son la fuente principal para paradas de planta n planeadas y producción de productos fuera
de especificación. Con los modelos basados en redes neuronales es posible seguir los
valores de los sensores y generar alarmas cuando las medidas provenientes de los sensores
físicos no están de acuerdo con los valores inferidos para los mismos. El valor inferido
puede ser empleado también como línea de base en los casos en que el instrumento es
recalibrado o reparado.
Predicción y Estimación. El futuro puede ser predicho dentro de la precisión que dan los
modelos basados en comportamientos. Las redes neuronales pueden aprender los modelos
óptimos, adaptados empleando los últimos datos medidos. Los ingenieros pueden emplear
estas predicciones para estimar las demanda de mercados de corto plazo, predecir estados
futuros del proceso o aún condiciones meteorológicas que afecten a las emisiones e
impacten sobre la vecindad de la planta.
Fuentes, Biliografía y Sitios Web
Web Sites:
IEEE Neural Networks Council Home Page
Neural Networks at PNNL
Bibliografía
Freeman, J.A., Skapura, D.M., "Neural Networks", Ed. Addison Wesley.
Caudill, M., Butler, Ch., "Understanding Neural Networks", MIT Press.
Widrow, J., Rumelhart, D.E., Lehr, M.A., "Neural networks: Applications in industry,
business and science", ACM communications, Vol-37, 1.994.
"DIGITAL NEURAL NETWORKS", S. Y. Kung, 1993 by PTR Prentice Hall, Inc.
"Neural Networks, Theoretical Foundations and Analysis", C.Lau, 1991, IEEE Press.
"SNNS User Manual, Version 4.0", UNIVERSITY OF STUTTGART.
"Neural Network Toolbox for use with MATLAB", H. Demuth and M. Beale.,Math Works
Inc.1998.
Fausett L., Fundamentals of Neural Networks, Prentice-Hall, 1994. ISBN 0 13 042250 9
Gurney K., An Introduction to Neural Networks, UCL Press, 1997, ISBN 1 85728 503 4
Haykin S., Neural Networks , 2nd Edition, Prentice Hall, 1999, ISBN
0 13 273350 1
Enciclopedia Multimedia Encarta 97’. Microsoft Corporation. CD-ROM Edition, 1997.
GUYTON Tratado de Fisiología Médica, 8ª Edic. Interamericana -McGraw –Hill. 1993.
FAQ (Frecuently Asked Questions)
¿A quien le interesan las redes neuronales?
Las redes neuronales están interesando a gente de procedencias muy diversas: físicos,
informáticos, estadísticos, ingenieros, biólogos, psicólogos, economistas, y especialmente
al empresario. Muchos procesos empresariales o industriales se mejoran notablemente a
partir de la introducción de redes neuronales.
¿Que relación hay entre las redes neuronales y los métodos estadísticos clásicos?
Existen redes que no tienen nada que ver con la estadística, como las que se utilizan en
modelos de sistemas biológicos, las redes de aprendizaje reforzado, o los mapas de
Kohonen. No obstante, muchos de los modelos de redes neuronales son alternativas o
mejoras a los métodos estadísticos más utilizados. Por ejemplo, las redes feedforward
multicapa son generalizaciones no lineales de los métodos de regresión lineal, las redes de
cuantización vectorial son parecidas a los métodos de análisis de clusters, las redes
hebbianas están muy relacionadas con el análisis de componentes principales, etc.
¿Cuántos métodos de aprendizaje existen para las redes neuronales?
Existen muchísimos, y cada día se inventan más. Los podríamos clasificar en dos grandes
grupos: aprendizaje supervisado y aprendizaje no supervisado. Al primer grupo pertenecen
el perceptron, adaline, madaline, backpropagation, maquinas de Cauchy, time delay NN,
associative reward-penalty, avalanche matched filter, backpercolation, Artmap, adaptive
logic network, cascade correlation, extended Kalman filter, learning vector quantization,
probabilistic NN, general regression NN, fuzzy cognitive map, mean field annealing,
recurrent cascade correlation, backpropagation through time, etc. En el segundo grupo
tenemos la contrapropagación, memoria asociativa difusa, memoria asociativa lineal, teoría
de resonancia adaptativa (ART), Hopfield discreto, memoria asociativa bidireccional,
memoria asociativa temporal, mapas de auto-organización de Kohonen, mapas que
conservan la topología, aprendizaje competitivo, etc.
¿Qué tipo de red me dará mejores resultados?
Dado el gran número de modelos existentes, es difícil escoger el que dará mejores
resultados para un problema concreto, ya que no existen reglas generales aplicables a todos
los casos. Para ello, el conocimiento concreto de cada modelo y la experiencia acumulada
en aplicaciones anteriores suele ser la mejor guía.
¿Cuántas unidades debo utilizar y como puedo calcular los parámetros de aprendizaje?
De la misma manera que encontrar el mejor modelo para solucionar un problema es una
tarea difícil y sin solución general, también el ajustar los diversos parámetros de una red
neuronal requiere mucha práctica y buenas dosis de paciencia.
¿Existe algún libro introductorio a las redes neuronales en castellano?
La bibliografía en castellano es muy escasa, prácticamente no existen traducciones de los
'clásicos', como podrían ser el libro de Hertz, Krogh y Palmer "Introduction to the theory of
neural computation", el de Kohonen "Self-organization and associative memory", o el de
Hecht-Nielsen "Neurocomputing". Como libro introductorio en castellano podríamos
considerar: "Redes neuronales artificiales: fundamentos, modelos y aplicaciones" J.R.
Hilera y V.J. Martínez, Ra-Ma, Madrid (1995).