Download una reflexión sobre las redes neurales y su relación con las redes

Document related concepts

Red neuronal artificial wikipedia , lookup

Conexionismo wikipedia , lookup

Conectoma wikipedia , lookup

Neurociencia computacional wikipedia , lookup

Perceptrón wikipedia , lookup

Transcript
UNA REFLEXIÓN SOBRE LAS REDES
NEURALES Y SU RELACIÓN CON LAS REDES
NEURONALES
RODRIGO PARDO
Profesor Facultad de Medicina
Universidad Nacional
CARLOS CORTES AMADOR
COMUNlCAaÓN (Memorias DC Versión Cátedra Manuel Ancízar)
175
177
, COMUNlCAaÓN (Memorias IX Versión Cátedra Manuel Ancízar)
CONFERENCIA 10
Las redes neurales se constituyen hoy en día en una atractiva e
interesante herramienta en muchos campos de estudio. Al pretender
modelar las capaddades del cerebro humano, ejercen sobre nosotros una
especial fascinación. Desde el punto de vista matemátíco y estadístico,
ias redes neurales son especialmente atractívas debido a su uso
potendasen la constmcdón de modelos de predicción y en la soludón de
problemas de dasificación.
No sorprende por lo tanto que su uso se extienda desde la identificación
de contactos sonares submarinos, la predicción de problemas cardíacos
en pacientes seleccionados, el diagnóstico de la hipertensión, el
reconodmiento de voces y lenguaje y la forma eficiente de jugar
backgammon.
En la actualidad, se emplea credentemente en la
predicdón de la estmctura secundada de las proteínas.
Las redes neurales utilizan fundamentalmente ordenadores o unidades de
proceso e infonnadón o datos a nutrir los ordenadores con el propósito de
obtener un resultado deseable. Los ordenadores son extremadamente
rápidos en la computación matemática superando de manera notable la
capacidad cerebral humana.
Sin embargo, el cerebro humano posee
varios ati'ibutos que serían altamente deseables en un ordenador.
l \ --r :n
:
'
-,
-;>.
i
•...•:=
• --.iiU; .K.-:
^ —
:
' .••• .-,
,
;. ^ ;
V
178
CARLOS CORTES AMADOR
FAan.TAD DE INGENIEN
FMMJRAl.RGPIieSENrACKM ESOUBMATICA OE LA NEURONA
Asad
Por ejemplo, la capaddad de identificar característícas rápidamente, aún
en presencia de "mido"; entender, interpretar y actuar con base en
nodones probabilístícas, formular inferendas y juidos con base en
experíendas anteríores y reladonar éstas con situadones completamente
nuevas, y de manera especial, soportar daños localizados sin perder la
fundonalidad completa. De manera tal que sí bien el ordenador es mucho
más veloz que el cerebro en la computadón numérica, el cerebro supera
de lejos al ordenador en muchas otias tareas.
-
iw
COMUNlCAaÓN (Mwnorias IX Versión Cátedra Manuel Ancizar)
-
-
CONFERENOA 10
La neurona es la unidad básica de computación en el cerebro. El cerebro
humano tíene aproximadamente 1011 neuronas actuando en paralelo.
Estas neuronas están altamente interconectadas (de forma típica, una
neurona se conecta a varíos miles de otias neuronas).
Los ti'abajos
iniciales de modelamiento cerebral parten de modelos neuronales,
destacándose el modelo de McCulloch-Pitts en 1943. Este modelo es una
unidad umbral binaría simple. La neurona recibe una suma ponderada de
aferendas (inputs) proveniente de sus unidades conectadas y produce
como eferenda un valor de uno (descarga) si esta cifra es mayor que el
umbral. Si la suma es menor que el umbral, el modelo responde con un
valor de cero. Aun cuando simple, computadonalmente este modelo es
equivalente a un ordenador digital. Esto quiere dedr que algunas de las
operaciones posibles para los ordenadores digitales convencionales
pueden realizarse con un gmpo ínterconectado de neuronas de
McCullochPitts.
En los inicios de la década del sesenta, Rosenblatt desarrolló un algorítmo
de aprendizaje para un modelo que denominó perceptron. Este
percepbx)n simple consiste en modelos de neuronas de McCulloch-Pitts
organizados en dos líneas, enti'adas y salidas. Las neuronas de entrada
redben datos del mundo extemo y las neuronas de salida envían
infonnadón desde la red hacia ese mundo extemo. Cada neurona de
entrada se conecta de manera unídirecdonal a todas las neuronas de
salida. El modelo utiliza unidades binarías de entiada y salida (-1 o I).
180
CARLOS CORTES AMADOR
FACULTAD DE INGENIERÍA
Para Rosenblatt si existe una soludón a un problema de dasificación, su
modelo aprendería a encontrar una soludón con una secuenda
determinada de pasos.
McCuUoch y Pitts (1943) Bulleliii of M a ú i e m a t i c d Biopkysics
Modelo binario simple, con "ihrtíhnld." coropuiiicioBalmeiiie
equivalente a U M compuuidora digital.
nSUKA r KUROHA DE HCCtHUOCH^rmí
LM emiMiMs SE miLTVucAM rcm « J B P O O S Y K M M M L «
BintAM META EXECBBE IM •
u
Ello era derto, si el problema era separable linealmente, es dedr que
existe un hiperpíano que puede delinear por completo las dases que el
dasificador pretende identíficar. Los problemas separables linearmente
constítuyen tan sólo un caso espedal de todos los posibles problemas de
—
-
. COMUNlCAaÓN (Memorias IX Vereión Cátedra Manuel Ancizar)
181
CoNFERENQA 10
Clasificación, y de allí derívaban las limitaciones del perceptron de
Rosenblatt.
Al tiempo que el psicólogo Rosenblatt se interesaba en
modelar el cerebro, Widrow, un ingeniero desartollaba un modelo similar
para aplicaciones de señalización de procesos que llamó Adaline.
En la década del setenta los esfuerzos se oríentaron hacia el
modelamiento de la memoría y el aprendizaje competitivo para terminar
con el modelo de Hopfield de memoría direccionada por contenido. En
contraste con el cerebro humano, un ordenador almacena datos bajo la
forma de cuadros de búsqueda. El acceso a estos datos en memoría se
obtiene mediante direcciones.
El cerebro no recurre a este tipo de
búsqueda. El localiza el par más cercano con base en el contenido de
ínformadón que se le presenta, es decir una memoría direccionada por
contenido.
^
Este modelo no obtuvo un desamolb o uso adecuado y dio paso al
desan'ollo de un método de entrenamiento de redes en múltiples niveles o
líneas y un nuevo algorítino de aprendizaje que se denominó propagadón
en reversa (backpropagation), método que supera los problemas de
perceptron simple y abre nuevas potencialidades a las redes neurales.
Una red con este entrenamiento puede resolver problemas que no sean
linearmente separables.
Muchos de los usos actuales de las redes
neurales en diferentes aplicaciones involucran una red progresiva de
múltíples niveles entrenada por el método de propagación en reversa o
una modificación del algorítmo.
182
FACULTAD DE INGENIEI
CARLOS CORTES AMADOR
Posteríomnente la investígación en redes incorporó muchas otras
arquitecturas, como las máquinas de Boitzmann basadas en unidades
estocástícas, utílizadas en tareas como completar patirones.
Feed-forward Neural Networks
t
Hidden
layerfs)
FIOUIIA3. UNA RED PRCKWEailM CON UN NMEL OCtlLTO ÚNICO
. COMUNlCAaÓN (Memorias IX Versión Cátedra Manuel Ancfzar)
183
Co.NFERENdA 10
Si bien la motivádón oríginal para el desarrollo de redes neurales era ei
modelamiento del cerebro humano, su mayor utilización actual se
asemeja poco al cerebro biológico.
Una red neural es un gmpo de
unidades computadonales simples altamente interconectadas.
Sus
unidades llamadas nodos, recuerdan la unidad de funcionamiento básico
cerebral, es dedr la neurona, célula altamente especializada en procesos
de recepción, modificadón, traducción, conducción y producdón de
señales, a tiavés de conexiones o uniones conoddas como sinapsis, en
un ambicioso proceso comunicativo, de aprendizaje y de memoría.
>-»v
:-'•'
Desde el punto de vista cerebral, esta unidad funcional es de gran
ganancia, con la potencialidad de modificar el manejo de sus señales de
acuerdo a las necesidades qué surgen del ambiente, permitiéndole un
derto grado de adaptación o plasticidad y tolerancia ante las fallas
locales. Esta comunicación neuronal trans-sináptica es posible gradas a
la generación de potendales eléctrícos que surgen como consecuencia de
delicados procesos bioquímicos en los cuales intervienen transmisores de
prímer y segundo orden, iones, corríentes de voltaje, receptores en
membranas, enzimas y modificadores de la señalizadón del mensaje.
Se trata de un sistema que tiene sus propias regias de regulación,
intensificación y reparación, dentro de dertos límites, genéticamente
detemninadas y susceptibles de daño como consecuenda de modificadón
genética, que produce mensajes" sin sentido" o con "sentido equívoco'.
..
.--jí.v
..:r- u i Ti
•'-- .••• - • - : ? ) ^',ci ^ t ! ••?-Í"I:,":'Í'-^
':~..
Finalmente debemos recordar que la comunicación sináptica puede ser
fadlitadora, esto es exdtatoría, o por el contrarío inhibitorío y que en gran
184
CARLOS CORTES AMADOR
FACULTAD DE INGENIER
medida en el sistema nervioso cential las neuronas, sus unidades básicas
computadonales frecuentemente se encuentian en estado de inhibidón.
El resultado fínal de la fundón de un gmpo neuronal dependerá del
equilibrío entre exdtadón e inhibidón.
Red multi-nivel:
Q„^^
HiddeiillBiH
m u m 4JKD MBHIOHM. MOetKMtfA DE MULTFtM NMBO. I M
u H M i » ocuLTM imaBEH i m auM «nsAM* 01 IA* e m u M » V
«pucMi UM niNCioii w Acrmüñte o IA «taaii. LW UMBMGi M
SAUM neCSIM IMA SWM M M M DK IA» U a n u a OCULTAS V
APUCMI UNA mctúM H ACTUMOON A LA MmA.
tfummmtBKwo
Las conexiones en las redes neurales, a su vez, intentan moldear los
procesos sinápticos. Cada conexión en la red posee un peso (el peso
sináptíco), que se interpreta como la fuerza de conexión entre las
185
COMUNlCAaÓN (Memorias IX Versión Cátedra Manuel Ancízar)
CoNFERENCU 10
unidades. La entrada de ínformadón hacia un nodo es la suma de los
pesos de las salidas provenientes de otros nodos conectados. Interviene
en la ecuación adicionalmente un "umbral" o enti'ada de base al nodo en
ausencia de otras entradas y que proviene de la fundón de activación
usada en la neurona de McCulloch-Pitt.
El cerebro aprende adaptando la fuerza de las conexiones sinápticas. De
manera similar, los pesos sináptícos en las redes neurales (semejantes a
los coeficientes en los modelos de regresión), se ajustan para resolver los
problemas que se le presentan a la red.
Aprendizaje o entrenamiento son los nombres que se utilizan para
descríbir el proceso de encontirar los valores a estos pesos. Dos típos de
aprendizaje se asocian con las redes neurales: supervisado o aprendizaje
con profesor y no supervisado.
Un ejemplo biológico del aprendizaje
supervisado es cuando se enseña el alfabeto a un niño. Se muestra al
niño una letra, y de acuerdo a su respuesta, se corríge (o reti-oalimenta) y
as! el proceso se repite con cada letra hasta lograr su aprendizaje. Así
mismo hay varíos algorítmos para entrenar las redes neurales, utílizando
el aprendizaje supervisado, como el método de propagación en reversa.
Un ejemplo de aprendizaje no supervisado sería cuando el niño toca un
quemador caliente.
Pronto aprende sin una enseñanza extema a no
hacerío. Posteríonmente podrá asodar una luz roja bríllante con el calor y
aprenderá a evitar tocar objetos en presencia de esta señal. En este
aprendizaje no existe fuente de confección o reb'oalimentación en el
enti-enamiento. • •
- -
•
•
-
M-
186
CARLOS CORTES AMADOR
FACULTAD DE INGENIE
Las redes neurales a las que hemos hecho referenda, se constmyen con
líneas o niveles de unidades y por ello son redes con múltíples niveles.
Cada nivel se compone de unidades que desannollan tareas similares.
Una red progresiva es aquella en la cual las unidades de un nivel se
conectan solamente a unidades en el siguiente nivel y no a unidades en el
nivel precedente o en el mismo nivel. Existen también redes recurrentes
que admiten todo tipo de conexión enti'e niveles.
Desde la perspectiva neurológica, la conectividad sináptica pemnite la
comunicadón hada adelante u ortodrómica, o hada atrás o antídrómica.
Así mismo la enorme ríqueza en conexiones permite la existenda de
drcuitos recurrentes altamente interconectados, donde la ínformadón
drcula con procesamiento y modificadón permanente.
Las redes neurales con múltiples niveles cuentan con un nivel de entibada,
un nivel de salida y en su interíor uno o varíos niveles 'ocultos' con un
número varíable de unidades 'ocultas' por nivel. Desde el punto de vista
computadonal, el nivel de entrada no ejerce fundón diferente de ingresar
datos al nivel siguiente para su proceso.
Estos niveles ocultos semejan la caja negra, llena de misterios y
sorpresas en donde el procesamiento de los datos condudrá finalmente al
nivel de salida con una respuesta. A nivel de cerebro, semejaría todos
aquellos sitíos de procesamiento intennedio de señales o respuestas, de
los cuales conocemos una buena parte, e ignoramos otro tanto.
187
COMUNlCAaÓN (Memorias IX Vereión Cátedra Manuel Ancizar)
CONFERENOA
10
Es indudable que es mucho más aún lo que podemos aprender del
funcionamiento intímo neuronal y cerebral y que los beneficios de
comprender sus misteríos ocultos nos permitírán no solo entender el
proceso inental y afectivo del ser humano, sino extenderío a aplicaciones
tecnológicas que pueden así mismo obtener un enorme beneficio. Puede
afirmarse que las unidades básicas de computadón cerebral, las
neuronas y sus unidades funcionales, la sinapsis, son bien conocidas. No
así todas las consecuencias
de su prolija
conectividad, cuyas
consecuendas inmediatas, el ser, el conocer y el actuar, como elementos
constitutivos del comportamiento humano aun ofrecen enomnes retos a
superar.
Abociíatioo
188
CARLOS CORTES AMADOR
FAcin.TAD DE INGENI
BIBLIOGRAFÍA.
Abu-Mostafa Y S (1986). Neural networks for computing. ln Proceedings of the
Amerícan Instituto of Physips Meeting. Pp1-6
Mc-Culkxh W S, PHts W (1943) A togfcal cahulus of Meas Imminertt ln Nervous
Activity.
BulletinofMathematkíalBtophysKS, 5:115-133.
Rosenblatt F. (1962) Príncipies of Neurodynamkis. Washington DC, Spartan
Hopfíekl JJ (1982) Neural Networks and Physksal Systems Wth Emergent
Collective
Computadonal AbiHOes. Proceedings of the National Academy of Sciences USA
81:2554-2558
Wamer B, Misra M. Understanding neural f^tworks as statistkial toois.
The
Amerícan
Statistitian, 1996; 284-293.
REFERENCIA BIBUOGRAFICA
f
ORTIZ J. UNA MIRADA A LA NEUROCOMPUTACION ARTIFICIAL
FACULTAD DE MEDICIfM, 1998:145-146
REVISTA