Download una reflexión sobre las redes neurales y su relación con las redes
Document related concepts
Transcript
UNA REFLEXIÓN SOBRE LAS REDES NEURALES Y SU RELACIÓN CON LAS REDES NEURONALES RODRIGO PARDO Profesor Facultad de Medicina Universidad Nacional CARLOS CORTES AMADOR COMUNlCAaÓN (Memorias DC Versión Cátedra Manuel Ancízar) 175 177 , COMUNlCAaÓN (Memorias IX Versión Cátedra Manuel Ancízar) CONFERENCIA 10 Las redes neurales se constituyen hoy en día en una atractiva e interesante herramienta en muchos campos de estudio. Al pretender modelar las capaddades del cerebro humano, ejercen sobre nosotros una especial fascinación. Desde el punto de vista matemátíco y estadístico, ias redes neurales son especialmente atractívas debido a su uso potendasen la constmcdón de modelos de predicción y en la soludón de problemas de dasificación. No sorprende por lo tanto que su uso se extienda desde la identificación de contactos sonares submarinos, la predicción de problemas cardíacos en pacientes seleccionados, el diagnóstico de la hipertensión, el reconodmiento de voces y lenguaje y la forma eficiente de jugar backgammon. En la actualidad, se emplea credentemente en la predicdón de la estmctura secundada de las proteínas. Las redes neurales utilizan fundamentalmente ordenadores o unidades de proceso e infonnadón o datos a nutrir los ordenadores con el propósito de obtener un resultado deseable. Los ordenadores son extremadamente rápidos en la computación matemática superando de manera notable la capacidad cerebral humana. Sin embargo, el cerebro humano posee varios ati'ibutos que serían altamente deseables en un ordenador. l \ --r :n : ' -, -;>. i •...•:= • --.iiU; .K.-: ^ — : ' .••• .-, , ;. ^ ; V 178 CARLOS CORTES AMADOR FAan.TAD DE INGENIEN FMMJRAl.RGPIieSENrACKM ESOUBMATICA OE LA NEURONA Asad Por ejemplo, la capaddad de identificar característícas rápidamente, aún en presencia de "mido"; entender, interpretar y actuar con base en nodones probabilístícas, formular inferendas y juidos con base en experíendas anteríores y reladonar éstas con situadones completamente nuevas, y de manera especial, soportar daños localizados sin perder la fundonalidad completa. De manera tal que sí bien el ordenador es mucho más veloz que el cerebro en la computadón numérica, el cerebro supera de lejos al ordenador en muchas otias tareas. - iw COMUNlCAaÓN (Mwnorias IX Versión Cátedra Manuel Ancizar) - - CONFERENOA 10 La neurona es la unidad básica de computación en el cerebro. El cerebro humano tíene aproximadamente 1011 neuronas actuando en paralelo. Estas neuronas están altamente interconectadas (de forma típica, una neurona se conecta a varíos miles de otias neuronas). Los ti'abajos iniciales de modelamiento cerebral parten de modelos neuronales, destacándose el modelo de McCulloch-Pitts en 1943. Este modelo es una unidad umbral binaría simple. La neurona recibe una suma ponderada de aferendas (inputs) proveniente de sus unidades conectadas y produce como eferenda un valor de uno (descarga) si esta cifra es mayor que el umbral. Si la suma es menor que el umbral, el modelo responde con un valor de cero. Aun cuando simple, computadonalmente este modelo es equivalente a un ordenador digital. Esto quiere dedr que algunas de las operaciones posibles para los ordenadores digitales convencionales pueden realizarse con un gmpo ínterconectado de neuronas de McCullochPitts. En los inicios de la década del sesenta, Rosenblatt desarrolló un algorítmo de aprendizaje para un modelo que denominó perceptron. Este percepbx)n simple consiste en modelos de neuronas de McCulloch-Pitts organizados en dos líneas, enti'adas y salidas. Las neuronas de entrada redben datos del mundo extemo y las neuronas de salida envían infonnadón desde la red hacia ese mundo extemo. Cada neurona de entrada se conecta de manera unídirecdonal a todas las neuronas de salida. El modelo utiliza unidades binarías de entiada y salida (-1 o I). 180 CARLOS CORTES AMADOR FACULTAD DE INGENIERÍA Para Rosenblatt si existe una soludón a un problema de dasificación, su modelo aprendería a encontrar una soludón con una secuenda determinada de pasos. McCuUoch y Pitts (1943) Bulleliii of M a ú i e m a t i c d Biopkysics Modelo binario simple, con "ihrtíhnld." coropuiiicioBalmeiiie equivalente a U M compuuidora digital. nSUKA r KUROHA DE HCCtHUOCH^rmí LM emiMiMs SE miLTVucAM rcm « J B P O O S Y K M M M L « BintAM META EXECBBE IM • u Ello era derto, si el problema era separable linealmente, es dedr que existe un hiperpíano que puede delinear por completo las dases que el dasificador pretende identíficar. Los problemas separables linearmente constítuyen tan sólo un caso espedal de todos los posibles problemas de — - . COMUNlCAaÓN (Memorias IX Vereión Cátedra Manuel Ancizar) 181 CoNFERENQA 10 Clasificación, y de allí derívaban las limitaciones del perceptron de Rosenblatt. Al tiempo que el psicólogo Rosenblatt se interesaba en modelar el cerebro, Widrow, un ingeniero desartollaba un modelo similar para aplicaciones de señalización de procesos que llamó Adaline. En la década del setenta los esfuerzos se oríentaron hacia el modelamiento de la memoría y el aprendizaje competitivo para terminar con el modelo de Hopfield de memoría direccionada por contenido. En contraste con el cerebro humano, un ordenador almacena datos bajo la forma de cuadros de búsqueda. El acceso a estos datos en memoría se obtiene mediante direcciones. El cerebro no recurre a este tipo de búsqueda. El localiza el par más cercano con base en el contenido de ínformadón que se le presenta, es decir una memoría direccionada por contenido. ^ Este modelo no obtuvo un desamolb o uso adecuado y dio paso al desan'ollo de un método de entrenamiento de redes en múltiples niveles o líneas y un nuevo algorítino de aprendizaje que se denominó propagadón en reversa (backpropagation), método que supera los problemas de perceptron simple y abre nuevas potencialidades a las redes neurales. Una red con este entrenamiento puede resolver problemas que no sean linearmente separables. Muchos de los usos actuales de las redes neurales en diferentes aplicaciones involucran una red progresiva de múltíples niveles entrenada por el método de propagación en reversa o una modificación del algorítmo. 182 FACULTAD DE INGENIEI CARLOS CORTES AMADOR Posteríomnente la investígación en redes incorporó muchas otras arquitecturas, como las máquinas de Boitzmann basadas en unidades estocástícas, utílizadas en tareas como completar patirones. Feed-forward Neural Networks t Hidden layerfs) FIOUIIA3. UNA RED PRCKWEailM CON UN NMEL OCtlLTO ÚNICO . COMUNlCAaÓN (Memorias IX Versión Cátedra Manuel Ancfzar) 183 Co.NFERENdA 10 Si bien la motivádón oríginal para el desarrollo de redes neurales era ei modelamiento del cerebro humano, su mayor utilización actual se asemeja poco al cerebro biológico. Una red neural es un gmpo de unidades computadonales simples altamente interconectadas. Sus unidades llamadas nodos, recuerdan la unidad de funcionamiento básico cerebral, es dedr la neurona, célula altamente especializada en procesos de recepción, modificadón, traducción, conducción y producdón de señales, a tiavés de conexiones o uniones conoddas como sinapsis, en un ambicioso proceso comunicativo, de aprendizaje y de memoría. >-»v :-'•' Desde el punto de vista cerebral, esta unidad funcional es de gran ganancia, con la potencialidad de modificar el manejo de sus señales de acuerdo a las necesidades qué surgen del ambiente, permitiéndole un derto grado de adaptación o plasticidad y tolerancia ante las fallas locales. Esta comunicación neuronal trans-sináptica es posible gradas a la generación de potendales eléctrícos que surgen como consecuencia de delicados procesos bioquímicos en los cuales intervienen transmisores de prímer y segundo orden, iones, corríentes de voltaje, receptores en membranas, enzimas y modificadores de la señalizadón del mensaje. Se trata de un sistema que tiene sus propias regias de regulación, intensificación y reparación, dentro de dertos límites, genéticamente detemninadas y susceptibles de daño como consecuenda de modificadón genética, que produce mensajes" sin sentido" o con "sentido equívoco'. .. .--jí.v ..:r- u i Ti •'-- .••• - • - : ? ) ^',ci ^ t ! ••?-Í"I:,":'Í'-^ ':~.. Finalmente debemos recordar que la comunicación sináptica puede ser fadlitadora, esto es exdtatoría, o por el contrarío inhibitorío y que en gran 184 CARLOS CORTES AMADOR FACULTAD DE INGENIER medida en el sistema nervioso cential las neuronas, sus unidades básicas computadonales frecuentemente se encuentian en estado de inhibidón. El resultado fínal de la fundón de un gmpo neuronal dependerá del equilibrío entre exdtadón e inhibidón. Red multi-nivel: Q„^^ HiddeiillBiH m u m 4JKD MBHIOHM. MOetKMtfA DE MULTFtM NMBO. I M u H M i » ocuLTM imaBEH i m auM «nsAM* 01 IA* e m u M » V «pucMi UM niNCioii w Acrmüñte o IA «taaii. LW UMBMGi M SAUM neCSIM IMA SWM M M M DK IA» U a n u a OCULTAS V APUCMI UNA mctúM H ACTUMOON A LA MmA. tfummmtBKwo Las conexiones en las redes neurales, a su vez, intentan moldear los procesos sinápticos. Cada conexión en la red posee un peso (el peso sináptíco), que se interpreta como la fuerza de conexión entre las 185 COMUNlCAaÓN (Memorias IX Versión Cátedra Manuel Ancízar) CoNFERENCU 10 unidades. La entrada de ínformadón hacia un nodo es la suma de los pesos de las salidas provenientes de otros nodos conectados. Interviene en la ecuación adicionalmente un "umbral" o enti'ada de base al nodo en ausencia de otras entradas y que proviene de la fundón de activación usada en la neurona de McCulloch-Pitt. El cerebro aprende adaptando la fuerza de las conexiones sinápticas. De manera similar, los pesos sináptícos en las redes neurales (semejantes a los coeficientes en los modelos de regresión), se ajustan para resolver los problemas que se le presentan a la red. Aprendizaje o entrenamiento son los nombres que se utilizan para descríbir el proceso de encontirar los valores a estos pesos. Dos típos de aprendizaje se asocian con las redes neurales: supervisado o aprendizaje con profesor y no supervisado. Un ejemplo biológico del aprendizaje supervisado es cuando se enseña el alfabeto a un niño. Se muestra al niño una letra, y de acuerdo a su respuesta, se corríge (o reti-oalimenta) y as! el proceso se repite con cada letra hasta lograr su aprendizaje. Así mismo hay varíos algorítmos para entrenar las redes neurales, utílizando el aprendizaje supervisado, como el método de propagación en reversa. Un ejemplo de aprendizaje no supervisado sería cuando el niño toca un quemador caliente. Pronto aprende sin una enseñanza extema a no hacerío. Posteríonmente podrá asodar una luz roja bríllante con el calor y aprenderá a evitar tocar objetos en presencia de esta señal. En este aprendizaje no existe fuente de confección o reb'oalimentación en el enti-enamiento. • • - - • • - M- 186 CARLOS CORTES AMADOR FACULTAD DE INGENIE Las redes neurales a las que hemos hecho referenda, se constmyen con líneas o niveles de unidades y por ello son redes con múltíples niveles. Cada nivel se compone de unidades que desannollan tareas similares. Una red progresiva es aquella en la cual las unidades de un nivel se conectan solamente a unidades en el siguiente nivel y no a unidades en el nivel precedente o en el mismo nivel. Existen también redes recurrentes que admiten todo tipo de conexión enti'e niveles. Desde la perspectiva neurológica, la conectividad sináptica pemnite la comunicadón hada adelante u ortodrómica, o hada atrás o antídrómica. Así mismo la enorme ríqueza en conexiones permite la existenda de drcuitos recurrentes altamente interconectados, donde la ínformadón drcula con procesamiento y modificadón permanente. Las redes neurales con múltiples niveles cuentan con un nivel de entibada, un nivel de salida y en su interíor uno o varíos niveles 'ocultos' con un número varíable de unidades 'ocultas' por nivel. Desde el punto de vista computadonal, el nivel de entrada no ejerce fundón diferente de ingresar datos al nivel siguiente para su proceso. Estos niveles ocultos semejan la caja negra, llena de misterios y sorpresas en donde el procesamiento de los datos condudrá finalmente al nivel de salida con una respuesta. A nivel de cerebro, semejaría todos aquellos sitíos de procesamiento intennedio de señales o respuestas, de los cuales conocemos una buena parte, e ignoramos otro tanto. 187 COMUNlCAaÓN (Memorias IX Vereión Cátedra Manuel Ancizar) CONFERENOA 10 Es indudable que es mucho más aún lo que podemos aprender del funcionamiento intímo neuronal y cerebral y que los beneficios de comprender sus misteríos ocultos nos permitírán no solo entender el proceso inental y afectivo del ser humano, sino extenderío a aplicaciones tecnológicas que pueden así mismo obtener un enorme beneficio. Puede afirmarse que las unidades básicas de computadón cerebral, las neuronas y sus unidades funcionales, la sinapsis, son bien conocidas. No así todas las consecuencias de su prolija conectividad, cuyas consecuendas inmediatas, el ser, el conocer y el actuar, como elementos constitutivos del comportamiento humano aun ofrecen enomnes retos a superar. Abociíatioo 188 CARLOS CORTES AMADOR FAcin.TAD DE INGENI BIBLIOGRAFÍA. Abu-Mostafa Y S (1986). Neural networks for computing. ln Proceedings of the Amerícan Instituto of Physips Meeting. Pp1-6 Mc-Culkxh W S, PHts W (1943) A togfcal cahulus of Meas Imminertt ln Nervous Activity. BulletinofMathematkíalBtophysKS, 5:115-133. Rosenblatt F. (1962) Príncipies of Neurodynamkis. Washington DC, Spartan Hopfíekl JJ (1982) Neural Networks and Physksal Systems Wth Emergent Collective Computadonal AbiHOes. Proceedings of the National Academy of Sciences USA 81:2554-2558 Wamer B, Misra M. Understanding neural f^tworks as statistkial toois. The Amerícan Statistitian, 1996; 284-293. REFERENCIA BIBUOGRAFICA f ORTIZ J. UNA MIRADA A LA NEUROCOMPUTACION ARTIFICIAL FACULTAD DE MEDICIfM, 1998:145-146 REVISTA