Download Modelos matemáticos para el estudio de la activación de la corteza
Document related concepts
Transcript
Modelos matemáticos para el estudio de la activación de la corteza cerebral Juan Alberto Escamilla Reyna 1999 Introducción La modelación matemática, en el área de las neurociencias, ha tenido éxito en los distintos niveles de organización del cerebro, baste recordar uno de los éxitos más famosos, el logrado por los neurofisiólogos A. Hodgkin y A. Huxley (H-H), que en el año 1952 [57], construyeron un modelo matemático para explicar la dinámica del potencial de membrana de una neurona, en función de las corrientes iónicas subyacentes. El modelo se toma todavı́a como ejemplo para la elaboración de modelos “realistas” de neuronas [21], [99], [100]. El modelo de H-H consta de cuatro ecuaciones diferenciales no lineales –otros modelos constan de más ecuaciones–. El estudio matemático de estos modelos es muy complejo y se ha abordado usando diversas herramientas matemáticas : métodos numéricos, teorı́a cualitativa de ecuaciones diferenciales, teorı́a de bifurcaciones, métodos de pequeño parámetro, etc. [16], [21], [28], [97], [100]. Otros éxitos famosos, son los logrados en el área de las redes neuronales, desde el trabajo pionero de Mc Culloch-Pitts [80], en el cual se construye una red neuronal, con neuronas artificiales muy simplificadas, pero basada en algunas propiedades de las neuronas reales, hasta los trabajos de Hopfield [59], [60]. Los trabajos de Hopfield han sido muy importantes para el estudio de la memoria asociativa. Actualmente, el área de las redes neuronales es muy fructı́fera, se desarrolla fundamentalmente en dos lı́neas de investigación: la primera, tiene como objetivo construir redes neuronales que resuelvan problemas en diversas áreas, computación, matemáticas, etc., independientemente de que si las propiedades de las neuronas y los parámetros que intervienen en la red tienen alguna relación significativa con las neuronas reales. La segunda, intenta construir redes neuronales “realistas”, que ayuden a explicar fenómenos fisiológicos reales. Para la primera lı́nea de investigación se pueden ver los trabajos [10], [12], [43], para la segunda [24], [40], [41], [75]. En esta área de investigación también se presentan problemas matemáticos complejos que se han abordado con métodos numéricos, ecuaciones diferenciales, teorı́a de bifurcaciones y técnicas de pequeño parámetro. En el área de la electroencefalografı́a, se han elaborado modelos considerando al cerebro como un medio conductor de la electricidad, y con una aproximación cuasi-estática, para tratar el problema de localización de I fuentes, para una distribución de potencial en el cuero cabelludo. Este problema no tiene solución única y usualmente se agregan hipótesis, sugeridas por la anatomı́a y fisiologı́a del cerebro, a las posibles fuentes que originan la distribución de potencial dada sobre el cuero cabelludo. Estos modelos plantean problemas matemáticos que se ubican en el área matemática de los problemas inversos. También se auxilian con los métodos matemáticos de la teorı́a del potencial. La principal limitante de los modelos de medio conductor cuasi-estáticos es que no pueden informar sobre el origen fisiológico de los patrones temporales rı́tmicos observados en el electroencefalograma. En cuanto al estudio dinámico de la actividad cortical y su relación con la dinámica de los electroencefalogramas (EEG), se han elaborado diversos modelos. Estos se pueden clasificar, grosso modo, en modelos locales, modelos globales y modelos locales-globales. En los modelos locales se trata de explicar la dinámica de la actividad cortical en función de lo que ocurre a nivel sináptico [33], [34], [75], [76], [77], [95]. En los modelos globales, se considera que la dinámica de la actividad cortical se puede explicar usando propiedades macroscópicas de la propia corteza [87], [88], [89], [90], [92] y en los modelos locales-globales, se mezclan ambos niveles [64], [66], [68], [104], [105]. Entre los modelos globales, se encuentra el elaborado por Nuñez [89], [92]. Es un modelo global lineal de interacción neuronal que describe la propagación de ondas de frecuencias bajas en la corteza cerebral, sus resultados coinciden –cualitativamente– con datos experimentales relacionados con el ritmo alfa y con algunos otros fenómenos electroencelográficos [89], [92]. Sin embargo, su modelo no incluye otros fenómenos fisiológicos, como los correspondientes a los diversos estados del sueño. El modelo relaciona la actividad sináptica –excitatoria e inhibitoria– en cada elemento de corteza x en el tiempo t, con el número de potenciales de acción que se “generan” en los demás elementos de corteza en tiempos anteriores, teniendo en cuenta las conexiones sinápticas y las velocidades de propagación de los potenciales de acción. El objetivo de esta tesis es elaborar y estudiar modelos que describen la dinámica de la actividad cortical, utilizando variables y parámetros que se puedan medir y ası́ poder correlacionarlos con las mediciones reales de dicha actividad. Los modelos que elaboramos desarrollan las ideas de Nuñez en al II menos dos direcciones: se introducen nuevos parámetros y se toma en cuenta la no homogeneidad de la corteza cerebral. Además, el enfoque matemático usado –ecuaciones diferenciales parciales ordinarias, técnicas de pequeño parámetro, etc.– nos permitió estudiar modelos no lineales de una manera menos complicada. Ver capı́tulos 2 y 3 de esta tesis. La tesis fue dividida en tres capı́tulos. En el capı́tulo 1, se hace un recuento breve sobre la estructura y funcionamiento del cerebro en sus distintos niveles, los diversos métodos y técnicas para obtener información y comentarios sobre los diversos modelos matemáticos que existen a nivel neurona, redes y estructuras completas. En el capı́tulo 2, describimos los fundamentos anatómicos y fisiológicos de los modelos matemáticos que construimos. Analizamos dichos modelos y los comparamos con el modelo de Nuñez. En el tercer capı́tulo describimos los resultados fundamentales que obtuvimos. III Contenido Capı́tulo 1 El cerebro : su estructura, funciones y diferentes formas de medir y modelar su actividad 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 El cerebro : un sistema complejo....................................................... Algunas estructuras importantes del cerebro..................................... La neurona y su fisiologı́a.................................................................. Bases fı́sicas del potencial de reposo de la membrana y del potencial de acción............................................................................................ Técnicas para obtener información del cerebro.................................. Algunos modelos de estructuras del cerebro...................................... Redes neuronales................................................................................ Modelos de medio conductor.............................................................. Conclusiones....................................................................................... 1 2 4 8 12 19 22 30 34 Capı́tulo 2 Modelación global de la actividad sináptica de la corteza cerebral 2.1 Introducción......................................................................................... 2.2 Bases fisiológicas para la modelación de la actividad sináptica en la corteza cerebral.................................................................................... 2.3 Descripción y simplificaciones en el modelo global de actividad sináptica en una banda de corteza....................................................... 2.4 Algunos modelos alternativos al modelo de Nuñez.............................. 2.5 Desarrollo y estudio de un modelo de la actividad sináptica de la corteza cerebral.................................................................................... 2.6 Transformación del sistema de ecuaciones integrales en un sistema de ecuaciones diferenciales parciales......................................................... 2.7 La ecuación de activación para la corteza cerebral.............................. 2.8 Construcción de un modelo compartimentado de activación de la corteza cerebral.................................................................................... IV 35 36 44 51 56 60 65 68 Capı́tulo 3 Análisis matemático del modelo de activación de la corteza cerebral 3.1 Un modelo matemático para una rebanada de corteza cerebral.......... 3.2 Controlabilidad de los estados fisiológicos de la corteza cerebral........ 3.3 Existencia de ondas viajeras en la corteza cerebral............................. 3.4 Ondas estacionarias en la corteza cerebral.......................................... 82 89 106 126 Conclusiones .............................................................................................. Bibliografı́a ................................................................................................ 129 131 V Capı́tulo 1 EL CEREBRO: SU ESTRUCTURA, FUNCIONES Y DIFERENTES FORMAS DE MEDIR Y MODELAR SU ACTIVIDAD 1.1 EL CEREBRO: UN SISTEMA COMPLEJO El cerebro es un sistema extremadamente complejo. Está compuesto de aproximadamente 1011 neuronas densamente interconectadas. Existen alrededor de 1015 conexiones entre las neuronas. Cada neurona se conecta con alrededor de 104 neuronas y recibe conexiones de aproximadamente 104 neuronas. Además las neuronas están rodeadas por un número igual o mayor de células, llamadas células gliales. Estudiar el diagrama de conexiones del cerebro es una tarea enorme, a pesar de que en muchas áreas del cerebro se ha logrado establecer que las interconexiones entre las neuronas no se hacen al azar, sino que “siguen leyes” bastante definidas. Pero aunque lográramos establecer perfectamente el diagrama de conexiones del cerebro, éste serı́a extremadamente difı́cil de manejar. Tarea igual de compleja o más es determinar cómo funcionan las distintas estructuras del cerebro y cómo se acoplan entre ellas. El cerebro procesa la información en diferentes escalas espacio-temporales. Se dan interacciones a nivel sináptico, entre grupos de neuronas de diversos tamaños, entre áreas cerebrales, etc. de las cuales surgen fenómenos que no se pueden explicar en 1 una sola escala espacio-temporal y que requieren un tratamiento cuidadoso en varias de estas escalas. 1.2 ALGUNAS ESTRUCTURAS IMPORTANTES DEL CEREBRO La información que se presenta en esta sección, fue obtenida de los libros [17], [71], [106]. Para una información más detallada sobre las distintas estructuras del cerebro y sus funciones recurrir a ellos. Se ha logrado establecer que el cerebro se encuentra dividido en muchas estructuras que interactúan entre sı́. De algunas de ellas se conoce aproximadamente su estructura anatómica y las funciones cerebrales en las que están involucradas. La corteza cerebral, la parte exterior del cerebro y, desde el punto de vista evolutivo, la parte más reciente del cerebro, es un órgano muy complejo de aproximadamente dos centı́metros de espesor y una superficie aproximada de 1600 cm2 . En la cavidad craneana, la corteza se encuentra densamente plegada, formando giros y surcos. Se divide en cuatro regiones, los lóbulos frontal, parietal, occipital y temporal. Cada uno de ellos cumple con funciones distintas. Se considera que la corteza se encuentra involucrada en las siguientes actividades : percepción sensorial, actividades motoras voluntarias, almacenamiento de distintos tipos de memoria, actividad conciente, etc. A pesar de su complejidad – gran cantidad de circunvoluciones y aproximadamente 1010 neuronas densamente interconectadas– la corteza tiene un conjunto de caracterı́sticas anatómicas y funcionales que facilitan la elaboración de modelos que nos permiten estudiarla teóricamente. Algunas de estas caracterı́sticas son: 1. Es un órgano estratificado que consta de seis capas horizontales de distintas densidades, además la corteza es bastante uniforme en el plano determinado por cada capa. 2 2. Tiene una organización columnar, es decir las neuronas se agrupan por columnas de diversos tamaños - minicolumnas, columnas y macrocolumnas corticales - que se traslapan y se orientan perpendicularmente a la superficie cortical. 3. La corteza cerebral está mucho más densamente interconectada consigo misma que con otras estructuras del cerebro. La estructura que tiene más conexiones con la corteza es el tálamo y éste contribuye con el 1% de las conexiones que tiene la corteza. En el siguiente capı́tulo presentaremos mayor información cualitativa y cuantitativa que justifique los modelos teóricos que estudiaremos. Por ahora terminaremos diciendo que en la corteza cerebral humana se procesa la información en múltiples escalas espacio temporales. Se dan interacciones entre neuronas, entre minicolumnas, entre columnas corticales, entre macrocolumnas, entre áreas corticales e interacciones que involucran todas estas escalas. El tálamo es una estación de relevo y centro integrador de las entradas sensoriales a la corteza. Se cree que también regula el nivel de conciencia y los aspectos emocionales de las sensaciones. El hipotálamo se considera como la interfaz cerebral con los sistemas hormonal y autónomo que controlan la homeóstasis interna del cuerpo. El tálamo y el hipotálamo constituyen conjuntamente el diencéfalo o cerebro intermedio. El sistema lı́mbico ocupa una porción cortical y una porción subcortical. Se encarga de las funciones relacionadas con la emoción, la motivación y ciertos tipos de memoria. Dos subestructuras del sistema lı́mbico son el hipocampo y la amı́gdala. El hipocampo juega un papel importante en la memoria. La amı́gdala coordina las acciones de los sistemas autónomo y endocrino. El cerebelo tiene una estructura muy sistematizada y homógenea en todo el órgano. La función más importante del cerebelo es la coordinación de la actividad motora y de la “postura”. Los ganglios basales son cinco núcleos altamente interconectados: caudado, putamen, globo pálido, núcleo subtálamico y sustancia nigra. Los 3 ganglios basales se considera que están implicados en aspectos cognitivos superiores del control motor y en otras muchas funciones. Por último, los hemisferios cerebrales están formados por la corteza y tres estructuras profundas: los ganglios basales, el hipocampo y el núcleo amigdalino. Aunque cada hemisferio tiene funciones especializadas, ambos trabajan en asocación en lo que se refiere a funciones perceptivas, cognitivas y motoras superiores. Existen muchas otras estructuras que no mencionamos en esta sección. Tampoco mencionamos las distintas interrelaciones que existen entre las diversas estructuras. Para mayor información se puede recurrir a los libros mencionados al inicio de esta sección. 1.3 LA NEURONA Y SU FISIOLOGÍA Una exposición detallada de los temas expuestos en esta sección y la siguiente se puede encontrar en [17], [20], [71], [106], [116], [117]. Las neuronas del cerebro presentan una gran variedad de formas y tamaños, (Fig. #1) , pero en todas ellas se pueden identificar cuatro partes (Fig. #2): 1. El cuerpo celular o soma. 2. Las dendritas. 3. El axón. 4. Los terminales axónicas o sinápticas. En el funcionamiento de la neurona, cada una de estas partes tiene un papel especı́fico: 1. El cuerpo celular es el centro metabólico de la neurona y el lugar donde se procesa la información. Su diámetro varı́a de 5 a 100µ. 4 2. Las dendritas son el centro receptor de la información de la neurona. Por lo general, la neurona recibe la información (en su mayor parte de tipo eléctrico) a través de las dendritas, aunque algunas veces la recibe directamente a través del cuerpo celular. 3. El axón es una fibra nerviosa que nace del cuerpo celular y es el encargado de transportar las señales que genera la neurona, en ocasiones transportando la señal a distancias considerables. El diámetro de los axones en humano, varı́a de 0.1µ a 20µ. Frecuentemente los axones están envueltos en una vaina grasa, denominada mielina. La vaina está dividida por espacios regulares sin mielina, llamados nodos de Ranvier. La misión de la vaina de mielina es aumentar la velocidad de propagación de las señales generadas por la neurona. 4. Los terminales axónicos o sinápticos constituyen los elementos de transmisión de la neurona. A través de ellos una neurona contacta y transmite la información a la zona receptora de otra neurona. La zona de contacto se llama sinápsis y por lo general la zona postsináptica se ubica en las dendritas, aunque también ocurren contactos sinápticos en el cuerpo celular de la neurona y algunas veces en el axón de la neurona. Existen aproximadamente 104 contactos sinápticos por neurona. En condiciones de reposo, toda la neurona (cuerpo celular, soma, dendritas) está polarizada de manera tal que el interior tiene un potencial de -70 mV , considerando que la superficie externa de la membrana es el nivel de referencia, es decir, tiene potencial cero. Este potencial de la neurona es llamado potencial de reposo de la membrana. El potencial de reposo puede variar, dependiendo del tipo de neurona, pero el interior de la membrana de la neurona queda siempre cargado negativamente, con respecto al exterior de la misma. Además este potencial puede cambiar en respuesta a diversos estı́mulos como temperatura, PH, concentraciones extracelulares de iones, corrientes eléctricas, etc. Como ya mencionamos anteriormente la neurona recibe la información (de otras neuronas o información producida por medios artificiales) a través de las dendritas. Esta información se presenta como un cambio en el potencial eléctrico en las dendritas; que llamaremos potenciales postsinápticos. Estos potenciales, tienen una magnitud entre 0.1 − 10 mV , son de naturaleza 5 local, pasivos y disminuyen en intensidad progresivamente y no se detectan más allá de 1 ó 2 mm del sitio de origen. El cuerpo celular los suma espacial y temporalmente y cuando se alcanza un cierto umbral, la neurona “genera” una señal, llamada potencial de acción. Esta señal es un impulso eléctrico que se propaga por el axón hasta los terminales axónicos, donde la despolarización produce la liberación de neurotransmisores que se propagan a través del espacio sináptico y afectan a la membrana postsináptica. Esta afectación modifica el estado eléctrico de la membrana y puede ser de tipo excitatorio despolarizándola y ası́ ayudar a la neurona receptora a que “genere” más fácilmente un potencial de acción, o de tipo inhibitorio que tiene el efecto contrario. Estos potenciales postsinápticos serán llamados potenciales excitatorios postsinápticos (PEPS) si excitan a la neurona y potenciales inhibitorios postsinápticos (PIPS) si la inhiben. La señal que genera una neurona, es decir, el potencial de acción tiene las siguientes propiedades : 1. Se propaga activamente a lo largo del axón. 2. No disminuye su intensidad en función de la distancia. 3. Es de naturaleza todo o nada. 4. Es semejante en todas las neuronas. La amplitud del potencial de acción es de unos 100 mV y dura de 0.5 a 2 milisegundos. Su velocidad de propagación depende del diámetro del axón y de su mielinización. 5. La mayorı́a de las neuronas generan un potencial de acción cuando el estı́mulo aplicado es despolarizante. La magnitud del estı́mulo debe ser mayor que un cierto valor crı́tico, llamado el umbral de disparo de la neurona. Este umbral depende de la neurona y aún en la misma neurona puede cambiar. También existen neuronas que generan un potencial de acción cuando el estı́mulo aplicado es hiperpolarizante y de cierta duración. 6. Si el mismo estı́mulo aplicado a la neurona, se mantiene durante un cierto tiempo, el umbral de disparo de la neurona disminuye. 6 7. Una vez que se genera un potencial de acción, la neurona es incapaz, durante cierto tiempo, de generar un nuevo potencial de acción, independientemente de la magnitud del estı́mulo que se le aplique, en este caso se dice que la neurona está en estado refractario. Al tiempo que dura la neurona en estado refractario se le llama perı́odo refractario absoluto. Existe un intervalo de tiempo, llamado perı́odo refractario relativo, durante el cual el umbral de disparo de la neurona aumenta y con esto dificultar la generación de nuevos potenciales de acción. El perı́odo refractario absoluto de una neurona determina la frecuencia de generación de potenciales de acción. 8. Un potencial de acción se puede generar mediante estı́mulos de corriente que varı́en linealmente con el tiempo, con tal que la pendiente sea mayor que un cierto valor crı́tico. Si la pendiente es menor que este valor crı́tico, no se genera ningún potencial de acción, sin importar qué tan grande sea la despolarización de la membrana. A esta propiedad de la membrana se le llama acomodación. El mecanismo de propagación del potencial de acción se puede describir esquemáticamente de la siguiente manera: el estı́mulo inicial en un punto del axón (una despolarización de la neurona de cierta magnitud) provoca corrientes locales que fluyen de manera pasiva a través de la membrana, causando una variación en el potencial de reposo en zonas cercanas al punto estimulado. Esta despolarización en las zonas cercanas “genera” un mecanismo en la membrana que genera un voltaje muchas veces mayor que el inicial, el cual a su vez produce corrientes locales que causan un cambio en el potencial en las zonas adyacentes y ası́ sucesivamente. Está claramente demostrado que el potencial de acción no se puede propagar por el axón como si éste fuera un cable (en forma pasiva) ya que en este caso el potencial decrecerı́a en forma exponencial y la rapidez de decrecimiento estarı́a en función de la resistencia de la membrana axónica y de la resistencia a las corrientes que fluyen longitudinalmente a través del axón 7 1.4 BASES FÍSICAS DEL POTENCIAL DE REPOSO DE LA MEMBRANA Y DEL POTENCIAL DE ACCIÓN Toda neurona contiene en su interior varios tipos de iones, entre los que se encuentra el sodio (N a+ ), el potasio (K + ) y el cloro (Cl− ) en distintas concentraciones, además de algunas otras moléculas como aminoácidos, proteinas, etc. La membrana de una neurona tiene distintas permeabilidades con respecto a cada tipo de ion. La difusión de los iones a través de la membrana celular se realiza a través de zonas especiales restringidas de la membrana, llamados “poros” o “canales” y existe selectividad de estos canales para los distintos tipos de iones. La membrana tiene también mecanismos activos para “bombear” algunos de los tipos de iones (principalmente el potasio y el sodio) del interior al exterior de la membrana y recı́procamente. En el exterior de la neurona también se encuentran distintos tipos de iones, principalmente sodio, potasio y cloro, en distintas concentraciones. Para el caso de la membrana neuronal en reposo del axón gigante del calamar, (ver Tabla 1). Los tipos de iones y las concentraciones de éstos, pueden variar, dependiendo del tipo de neurona que se considere. Tabla 1 Lı́quido Potencial de Especie Citoplasma extracelular equilibrio∗ iónica (mM) (mM) (mV) + K 400 20 −75 N a+ 50 440 +55 Cl− 52 560 −60 A− (iones 385 – – orgánicos) La distribución de los principales iones a través de la membrana neuronal en reposo del axón gigante del calamar. ∗ Se denomina ası́ al potencial de membrana en el que no hay flujo neto de iones a través de la membrana 8 Actualmente se considera que el potencial de reposo de la membrana se logra cuando los flujos pasivos y activos de N a+ , K + , Cl− están balanceados (Fig. #3), lo cual se logra cuando las fuerzas de difusión, provocadas por las distintas concentraciones de los iones, en el interior y exterior de la membrana se equilibran con las fuerzas eléctricas, producidas por el hecho de que los iones son partı́culas cargadas eléctricamente. El potencial de acción se logra cuando la neurona se despolariza hasta un nivel crı́tico; en ese momento tiene lugar un cambio súbito, donde las barreras normales que se oponen al flujo de sodio y potasio desaparecen momentáaneamente, estableciéndose un flujo local de iones, de suficiente magnitud como para invertir el potencial de membrana, que alcanza unos 50 mV (positivo en el interior) y después se invierte de nuevo para establecer el potencial de reposo. Pero la primera inversión (hacia el interior positivo) ha producido una señal potente que se extiende y lleva la región adyacente de la membrana a un nivel crı́tico, repitiéndose entonces el proceso (Fig. #3). En la siguiente sección explicaremos más detalladamente esto y describiremos los diversos modelos que existen al respecto. Una ecuación importante en la fisiologı́a es la ecuación de Nernst, obtenida en 1888 por W. Nernst. Esta ecuación relaciona el potencial de una membrana permeable a un ion con las concentraciones del ion en el interior y el exterior de la membrana. La ecuación se aplica con la condición de que la corriente total iónica sea igual a cero, es decir, cuando la corriente iónica producida por el potencial es igual a la corriente producida por la diferencia de concentraciones en el interior y el exterior de la neurona. Supongamos que tenemos dos compartimientos A y B, donde se tiene una solución que contiene un ion I, a diferentes concentraciones CA y CB y que los compartimientos están separados por una membrana permeable al ion I (Fig. #4) Figura 4 A ion I CA + ion I −CB V 9 B Como el ion I se encuentra a diferentes concentraciones en A y B, entonces se empezará a difundir del compartimiento de mayor concentración al de menor concentración pero como el ion lleva una carga, el compartimiento hacia el cual se está difundiendo empieza a aumentar su carga ası́ aumenta su voltaje frenando la difusión del ion. El equilibrio dinámico se logrará cuando el voltaje en el compartimiento que recibe los iones difundidos se equilibra con la fuerza de difusión que surge debido a las distintas concentraciones del ion. Es decir, cuando: µ ¶ RT CB (1.1) V = ln ZF CA donde V es el voltaje entre el compartimiento A y el compartimiento B, R es la constante de los gases ideales, T la temperatura (en grados Kelvin), Z la valencia del ion y F la constante de Faraday (la carga de una mole de partı́culas univalentes), aproximadamente 9.65 × 104 C/mol. Esta ecuación nos permite calcular el voltaje entre A y B en términos de las concentraciones del ion en los compartimientos A y B, cuando el flujo neto de iones entre los compartimientos es cero. Este voltaje entre A y B es llamado el potencial de equilibrio del ion. En la Tabla 1 están los valores de los potenciales de equilibrio de algunos iones. En el caso que los compartimientos contengan más de un ion, con distintas concentraciones y que la membrana contenga canales independientes para el paso de los iones, se puede calcular el potencial de equilibrio de un solo ion, usando (1.1), con la condición de que la membrana tenga abierto, únicamente, el canal de ese ion. Si todos los canales de la membrana están abiertos simultáneamente, entonces el voltaje dependerá de las permeabilidades (facilidad con que un ion atraviesa la membrana (cm/seg)) relativas de los iones y de las concentraciones de los iones. Goldman (1943) calculó el potencial final promedio: ÃP P RT P + [I + ]A + Pi− [Ii− ]B ln P i+ +i V = P Zi F Pi [Ii ]B + Pi− [Ci− ]A ! (1.2) donde Pi+ , Pi− representan las permeabilidades de las especies iónicas positivas y negativas respectivamente y [Ii+ ]∗ , [Ii− ]∗ son las concentraciones de estos iones en el compartimiento ∗. 10 En el caso de la membrana de una neurona sabemos que en el interior y el exterior de la misma se encuentran varios tipos de iones con distintas concentraciones y permeabilidades. Entre los principales se encuentran el sodio (N a+ ), el potasio (K + ) y el cloro (Cl− ). Aplicando (1.2) para estos tres iones obtenemos: " KT Pk+ [K + ]e + PN a+ [N a+ ]e + PCla− [Cl− ]i V = ln F Pk+ [K + ]i + PN a+ [N a+ ]i + PCla− [Cl− ]e # (1.3) En la ecuación de Goldman se supone que el campo eléctrico que existe a través de la membrana varı́a uniformemente, por lo que también se supone que los movimientos de los iones a través de la membrana son independientes unos de otros. La importancia de este resultado es que nos permite hacer predicciones cuantitativas del potencial de membrana cuando se tienen variaciones de las concentraciones de los iones y de las permeabilidades de la membrana a los distintos iones. Usando la ecuación de Nernst y con ciertos experimentos de tipo eléctrico se ha logrado demostrar que la membrana de una neurona en estado de reposo no es permeable únicamente al potasio sino que también es permeable al sodio, aunque la permeabilidad del sodio es muy pequeña con respecto a la del potasio. Se considera que la permeabilidad con respecto a los iones de sodio es aproximadamente el 1% de la correspondiente a los iones de potasio y por ello debe de haber una “bomba” en la membrana que bombea iones de sodio hacia el exterior de la membrana e iones de potasio al interior de la misma. También se logró establecer lo que ocurre cuando una neurona genera un potencial de acción. El potencial de acción se genera cuando se logra una despolarización de la membrana de aproximadamente 15 mV y en ese momento ocurre que la permeabilidad de la membrana al sodio aumenta, por la apertura de canales de N a+ (que dependen del voltaje), lo que hace que el potencial se eleve. Esto a su vez permite que aumente la permeabilidad de la membrana, por un nuevo aumento de los “canales” de sodio, lo que hace que el potencial se eleve y ası́ sucesivamente, hasta que el potencial casi alcanza el potencial de equilibrio del sodio (se establece en la membrana un 11 mecanismo de retroalimentación positiva entre el potencial de membrana y la permeabilidad de ésta al sodio). Este potencial de equilibrio no se alcanza ya que cuando se inicia el aumento de la permeabilidad de la membrana al sodio, un corto tiempo después empieza a aumentar la permeabilidad de la membrana al potasio y una entrada de cloro a la membrana. Además los canales de sodio empiezan un proceso de inexcitabilidad y también se tiene un flujo pasivo de iones de potasio. En resumen, el potencial de acción se origina cuando la estimulación eléctrica alcanza un cierto umbral. Su dinámica se encuentra determinada por la relación que existe entre las distintas corrientes iónicas que se establecen en la membrana, tanto corrientes pasivas como activas. En la sección 1.6 se mostrarán algunos modelos que describen este proceso de manera cuantitativa. Una manera equivalente de estudiar el potencial de membrana de una neurona consiste en construir un circuito eléctrico que incorpore las tres propiedades básicas que utiliza la membrana para generar señales eléctricas - los canales iónicos, los gradientes de concentración de los iones, la capacidad de la membrana para almacenar carga eléctrica. Cada canal iónico se puede representar como una resistencia (o como una conductancia que es la inversa de la resistencia). La conductancia para un canal iónico serı́a en cierta medida, equivalente a la permeabilidad de la membrana a ese ion. La capacidad de la membrana para almacenar carga se puede representar como una capacitancia y los gradientes de concentración como una baterı́a (Figs. #5,6) El modelo de circuito equivalente es muy importante desde el punto de vista experimental ya que permite el uso de técnicas electrofisiológicas para el estudio de las señales neurales, en lugar del uso de isótopos radiactivos que se usan para medir los cambios de permeabilidad y difusión de iones. 1.5 TÉCNICAS PARA OBTENER INFORMACIÓN DEL CEREBRO En el proceso de obtener información sobre la estructura anatómica y funcional del cerebro en sus diversos niveles –neurona, poblaciones de neu12 ronas y todo el cerebro– se han elaborado, con la ayuda de la tecnologı́a y otras ciencias, un conjunto de técnicas e instrumentos que se han ido mejorando con el transcurso del tiempo y que han sido de gran utilidad para el diagnóstico clı́nico, para los neuroanatomistas y los neurofisiólogos. Para el estudio anatómico se han usado instrumentos como el microscopio óptico, el microscopio electrónico, etc. y algunos métodos de tinción selectiva como el método de Golgi, Nissl, Nauta, etc. El método de Golgi, inventado por Camilo Golgi alrededor de 1875, es un método de tinción selectiva que tiene la propiedad de que al teñir un grupo de neuronas, sólo algunas de ellas, aproximadamente una de cada cien se tiñen por completo (dendritas, cuerpo celular, axón) y las demás quedan intactas. Con este método, Santiago Ramón y Cajal logró establecer que el cerebro está constituido por células separadas, que las interconexiones entre ellas no eran al azar, además de describir la arquitectura de una gran cantidad de estructuras del cerebro. Con el método de Nissl se logra destacar los cuerpos celulares de las neuronas, pero no sus dendritas y axones. Por mucho tiempo los neuroanatomistas usaron estos dos métodos de tinción para estudiar anatómicamente el cerebro. Alrededor de 1952 W. Nauta inventó un método de tinción selectiva, que actualmente lleva su nombre. Según D. H. Hubel, este método es el primer instrumento eficaz para cartografiar las conexiones entre las distintas estructuras del cerebro. El método de Nauta aprovecha el hecho de que, cuando se destruye una neurona, la fibra nerviosa que procede de ella degenera y, antes de desaparecer por completo, puede ser teñida de manera diferente de sus vecinos normales. Los avances tecnológicos y una mayor comprensión del funcionamiento de las neuronas han permitido crear técnicas con las cuales, no sólo se logra obtener información más precisa sobre las conexiones entre regiones cerebrales, identificar neuronas, sino también sobre las zonas activas del cerebro. Existen técnicas que aprovechan el hecho de que las neuronas absorben y sintetizan varias sustancias – proteı́nas, enzimas, etc. –. Algunas de éstas sustancias son transportadas, a través del axón, desde el soma hasta los terminales axónicos (transporte anterógrado). También existe un transporte de sustancias desde los terminales axónicos al cuerpo celular (transporte retrógrado). 13 La autorradiografı́a de Cowan (1972) es una técnica que aprovecha el transporte axónico anterógrado para determinar los terminales axónicos de una neurona. Esta técnica consiste en inyectar, en alguna estructura cerebral, aminoácidos marcados radiactivamente, éstos penetran en el soma de la neurona y se incorporan en las sustancias que son transportadas hasta los terminales axónicos, donde se les puede detectar por un proceso de autorradiografı́a. También se cuenta con técnicas que aprovechan el transporte axónico retrógrado. Entre las más conocidas esta la técnica de la peroxidasa de rábano, se inyecta en el sistema nervioso, la enzima peroxidasa de rábano, ésta es absorbida por los terminales axónicos y transportada retrógradamente hacia el cuerpo celular, donde puede ser detectada por diversas técnicas, y ası́ conocer el origen del axón. Para mayor información de otras sustancias que se usan para el estudio de las conexiones entre regiones cerebrales, otros métodos para detectar sustancias (la inmunohistoquı́mica se basa en la detección de sustancias tisulares por medio de anticuerpos), la hibridación in situ, etc. recurrir a [51] y [107]. En este último se hace una revisión detallada de la organización neuronal y sináptica de la corteza cerebral. Basándose en el hecho de que la glucosa es el combustible de las neuronas, y éstas consumen más glucosa cuando están activas que cuando se encuentran en reposo, Louis Sokoloff (1977) inventó una técnica que le permitió medir el metabolismo de las neuronas. La técnica consiste en inyectar en el torrente sanguı́neo un análogo quı́mico de la glucosa (la 2–desoxiglucosa), que es absorbida por las neuronas, mediante el mismo sistema que la glucosa, aunque una vez en el interior de la neurona, ya no puede ser metabolizada. Si la 2–desoxiglucosa es marcada radiactivamente e inyectada en el torrente sanguı́neo, la velocidad con que se acumula en el interior de las neuronas, nos proporciona un ı́ndice de la actividad metabólica de las neuronas. Las técnicas que hemos mencionado hasta ahora requieren en algún momento de la destrucción del sujeto de estudio. Con el desarrollo de la tecnologı́a se crearon nuevas técnicas menos invasivas, que permitı́an obtener información sobre la actividad del cerebro humano en vivo, por ejemplo la to14 mografı́a axial computarizada (TAC), la tomografı́a por emisión de positrones (TEP) y la formación de imagenes por resonancia magnética (IRM), entre otras. Las herramientas teóricas fundamentales para el análisis de los diferentes tipos de tomografı́as están vinculadas a la transformada de Radon y los métodos matemáticos y computacionales de reconstrucción por proyecciones. Existe una vasta bibliografı́a de estos temas entre los que vale citar a [53], [54] y [85]. La tomografı́a axial computarizada se aprovecha del hecho que los distintos tejidos absorben diferentes cantidades de energı́a de rayos X; mientras más denso es el tejido, tanto más absorbe. Por ello un haz de rayos X muy concentrado que atraviese el cuerpo emergerá del mismo a un nivel reducido de intensidad que dependerá de los tejidos y órganos encontrados a su paso. Si se dirigen a través del cuerpo haces planos de rayos X con diferentes ángulos de inclinación, se recogerá información suficiente para reconstruir una imagen de la sección del cuerpo, la cual debidamente procesada permite reconstruir una imagen tridimensional de la intensidad de radiación absorbida y por ende de la estructura interna del objeto estudiado. La tomografı́a por emisión de positrones, permite cartografiar las estructuras cerebrales activas ya que permite la medición de diversas actividades del cerebro, tales como el metabolismo de la glucosa, el consumo de oxı́geno, el riego sanguı́neo y la interacción con los fármacos. De todas estas variables, el flujo sanguı́neo ha demostrado ser el indicador más fiable de la función cerebral en cada momento. Con la TEP se pueden localizar cambios de actividad con precisión milimétrica. La formación de imágenes por resonancia magnética (IRM) es un instrumento bastante común para diagnosticar lesiones en tejidos. Tuvo su origen en una técnica de laboratorio denominada resonancia magnética nuclear (RMN), diseñada con el fin de explorar las caracterı́sticas quı́micas de las moléculas. La (RMN) se basa en que muchos átomos se comportan como diminutas agujas imantadas en presencia de un campo magnético. En estas condiciones, la aplicación de impulsos de una onda radioeléctrica a una muestra, perturba los átomos de una manera muy precisa, y éstos en consecuencia emiten señales de radio detectables que identifican el número y el estado de los átomos pertenecientes a la muestra. El ajuste del campo magnético y de los impulsos de onda radioeléctrica proporciona información 15 sobre la muestra de estudio. En el caso del cerebro P. C. Lauterbur descubrió que podı́an formarse imagenes por RMN mediante la detección de protones. La utilidad de estas partı́culas, abundantes en el cuerpo humano, reside en su gran sensibilidad a los campos magnéticos que los hace comportarse como minúsculas agujas imantadas. De esta forma se obtuvieron excelentes imagenes anatómicas con detalle muy superior a las conseguidas mediante TAC. El interés por aplicar la IRM a la obtención de imágenes cerebrales se debe a que esta técnica es capaz de detectar una señal inaccesible a las exploraciones mediante TEP como por ejemplo, el aumento en la concentración de oxı́geno que se produce en una zona donde se ha intensificado la actividad neuronal. Otras ventajas sobre la TAC y otras técnicas son: 1. La señal procede directamente de cambios inducidos por causas funcionales en el tejido cerebral (el cambio en la concentración de oxı́geno venenoso). 2. Para obtener una señal no hay que inyectar ninguna substancia, radiactiva o de otro tipo. 3. La IRM proporciona información anatómica y funcional sobre cada sujeto, lo cual permite una identificación estructural exacta de las zonas activas. 4. Adecuadamente equipada, puede observar en tiempo real el ritmo de cambio de la señal de oxı́geno inducida en el flujo sanguı́neo. Sin embargo a pesar de las ventajas que proporciona la combinación de estas técnicas, ninguna de ellas puede determinar la evolución temporal del intercambio de información en diferentes zonas del cerebro, lo cual es fundamental para estudiar cómo se coordinan en red diferentes zonas del cerebro para la realización de una actividad dada. El obstáculo que enfrentan la IRM y TEP para este objetivo es la gran diferencia de velocidades entre la actividad neuronal y el ritmo de variación de los niveles de oxigenación en las neuronas. Las señales viajan de una parte a otra del cerebro en 0.01 segundos o menos, pero los cambios de flujo sanguı́neo y oxigenación de la sangre son mucho más lentos y ocurren desde décimas de segundo hasta varios segundos más tarde. La IRM no puede seguir las “conversaciones” entre regiones 16 cerebrales. Los únicos métodos que responden con rápidez suficiente son las técnicas de registro eléctrico, es decir, la electroencefalografı́a (EEG) que detecta la actividad eléctrica del cerebro a partir de mediciones efectuadas sobre el cuero cabelludo y la magnetoencefalografı́a (MEG), la cual mide el comportamiento electromagnético que genera la actividad eléctrica en el interior del cerebro. El defecto de estas técnicas es que su resolución espacial es menor que la de otras técnicas y la localización precisa de las fuentes de actividad cerebral sigue siendo un problema muy complejo. En 1929 el psiquiatra alemán Hans Berg demostró que era posible medir –usando electrodos colocados en el cuero cabelludo– la actividad eléctrica del cerebro humano. Demostró que bajo ciertas condiciones en el sujeto de estudio (ojos cerrados, sin estı́mulos exteriores, relajado) el registro de la actividad eléctrica seguı́a un patrón temporal rı́tmico al que llamó ritmo α. Este patrón temporal tenı́a una frecuencia entre 9 y 10 c/s. Los orı́genes fisiológicos del ritmo α, siguen siendo motivo de controversia, algunos fisiólogos consideran que el ritmo α se origina en el tálamo y que el tálamo le impone este ritmo a la corteza, a través de las conexiones que existen entre ambos, mientras que otros consideran que este ritmo es una manifestación de la actividad masiva de la corteza cerebral. Posteriormente se han descubierto otros patrones temporales rı́tmicos que se producen bajo ciertas condiciones corporales especiales. Por ejemplo, el ritmo δ (0 a 5 Hz) se produce bajo sueño profundo, el ritmo β (15 a 30 Hz) se produce bajo intensa actividad mental y otros más. El EEG (medido en el cuero cabelludo o en otras regiones del cerebro) se ha convertido en una herramienta clı́nica importante para el estudio de ciertas patologı́as del cerebro, como la epilepsia, tumores cerebrales, etc. Estas patologı́as aparecen en el EEG como patrones anormales de la actividad eléctrica espontánea del cerebro. Los potenciales evocados (los potenciales que se producen como repuesta a un estı́mulo) se han usado en gran medida para el diagnóstico clı́nico de las afecciones sensoriales (auditivos, visuales, etc.) y en la detección de problemas cognitivos [14], [92], [105]. Uno de los problemas fundamentales de la electroencefalografı́a consiste en correlacionar los patrones espacio-temporales obtenidos mediante el EEG con la actividad eléctrica del cerebro y con conductas observables. Si se quiere 17 elaborar modelos que describan la dinámica de la actividad eléctrica del cerebro y que se correlacionen con los patrones espacio-temporales obtenidos con el EEG; se requiere tomar en cuenta las escalas espacio-temporales en que están promediando las mediciones efectuadas ya que los datos electroencefalográficos son obtenidos promediando la actividad neuronal en distintas escalas espacio-temporales. Existen EEG’s con distintas resoluciones tanto espaciales como temporales. Por ello las variables a considerar en nuestros modelos deben estar en congruencia con las escalas espacio-temporales usadas en el EEG. En el siguiente capı́tulo detallaremos los problemas que se presentan en esta área de estudio. Los modelos que más han sido estudiados son los que utilizan los principios de la teorı́a del campo electromagnético considerando al cerebro como un medio continuo conductor, con una cierta geometrı́a (que depende de las hipótesis del modelo) y cierta conductividad variable. En el problema directo, se considera dada la ubicación de las fuentes de corrientes impresas (zonas activas), su configuración, la geometrı́a de la cabeza y las conductividades de los distintos comportamientos (cuero cabelludo, cráneo, corteza, lı́quido extracraneal, etc.) y se calcula la distribución del potencial generado en estas condiciones, comparándose los resultados teóricos con los obtenidos con técnicas electroencefalográficas. Mediante el aporte de ambos datos se puede encontrar alguna información sobre la respuesta electrica de una zona activa dada. El problema inverso consiste en obtener información sobre la ubicación de las fuentes de corrientes impresas y las conductividades en diferentes partes del cerebro usando los datos discretos que se obtienen con el EEG. Este problema no tiene solución única, es decir, existe una multitud de distribuciones de fuentes de corriente en el cerebro que pueden producir la misma distribución de potencial en el cuero cabelludo. Al no tener solución única el problema inverso, usualmente se agregan restricciones, sugeridas por la anatomı́a y fisiologı́a del cerebro, a las posibles fuentes que originan la distribución de potencial dada sobre el cuero cabelludo. Usualmente estos modelos se restringen a la aproximación electrostática por lo que son útiles para estudiar la distribución espacial de generadores de los EEG pero no ası́ sus propiedades temporales [9], [105]. 18 Para estudiar la dinámica espacio-temporal de la actividad eléctrica se pueden construir ecuaciones plausibles, a partir de datos anatómicos y fisiológicos que involucren variables que sean congruentes con las escalas espacio-temporales usadas en los distintos EEG, para estudiar sus soluciones y su relación con las mediciones obtenidas a través del EEG. Finalmente, otro método usado consiste en elaborar una jerarquı́a de escalas espacio-temporales. En cada escala espacio-temporal se deducen las ecuaciones que gobiernan las variables que se consideran idóneas en ese nivel y se estudia la relación que existe entre un nivel y el nivel superior inmediato. En la sección siguiente desarrollaremos con mayor detalle algunos de estos modelos. 1.6 ALGUNOS MODELOS DE ESTRUCTURAS DEL CEREBRO En el estudio del cerebro se han elaborado diversos modelos para los distintos niveles del mismo. Se cuenta con modelos a nivel de neurona, grupos de neuronas, de subestructuras del cerebro y del cerebro completo. Cada uno de estos modelos toma en cuenta ciertos aspectos del cerebro dependiendo de los problemas que se quieren estudiar. Es importante recalcar que los elementos y las relaciones que se toman en cuenta para la elaboración del modelo están intimamente relacionados con el nivel del cerebro que se esté considerando y con los fenómenos que se quieren explicar. Uno de los primeros éxitos importantes en la modelación matemática en el estudio del cerebro fue el logrado por A. Hodking y A. Huxley (H.H) en 1952 [57]. El modelo por ellos propuesto describe, por medio de un sistema de ecuaciones diferenciales no lineales, cómo varı́a temporalmente el potencial de membrana en función de las corrientes iónicas, que fluyen a través de la membrana en el axón de un calamar. El modelo toma en cuenta tres corrientes iónicas, la de potasio (IK ), la de sodio (IN a ) y una corriente de filtraje (IL ). Considera que las corrientes de sodio y potasio fluyen a través de canales cuya conductancia depende del potencial de membrana y del tiempo. 19 De acuerdo con las leyes de Kirchhoff, se tiene que: Cm dV = IN a + IK + IL , dt (1.4) donde Cm es la capacitancia de la membrana. También se tiene: IN a = gN a (V − VN a ) , (1.5) IK = gK (V − VK ) , (1.6) IL = gL (V − VL ) , (1.7) donde g∗ es la conductancia del ion ∗ y V∗ el potencial de equilibrio de dicho ion. Luego se tiene que Cm dV = gN a (V − VN a ) + gK (V − VK ) + gL (V − VL ) . dt (1.8) En este modelo se considera que gN a y gK son dependientes del potencial V y gL es constante, es decir: Cm dV = m3 hḡN a (V − VN a ) + n4 ḡK (V − VK ) + gL (V − VL ) , dt (1.9) donde ḡN a , ḡK son las conductancias máximas del sodio y el potasio y 0 < m, n, h < 1 donde m y n son variables de activación y h una variable de inactivación que obedecen las ecuaciones: dm = αm (1 − m) − βm m , dt (1.10) dn = αn (1 − n) − βn n , dt (1.11) dh = αh (1 − h) − βh h , dt (1.12) con coeficientes αm , βm , αn , βn , αh , βh que son funciones obtenidas empirı́camente y que dependen del potencial V . 20 Hodking y Huxley describen un gran número de experimentos controlados que involucran corrientes, conductancias y potenciales, cuyos resultados “coinciden” con las predicciones del modelo. El modelo (1.9), (1.10), (1.11) y (1.12) se construyó bajo la hipótesis de que el potencial de membrana sea uniforme a lo largo del axón, o se considere únicamente un pedazo pequeño de membrana. Para estudiar situaciones en las que el potencial de membrana varı́a temporal y espacialmente a lo largo del axón, este modelo no se puede aplicar. Usando resultados de la teorı́a del cable se puede construir un sistema de ecuaciones diferenciales parciales no lineales que tomen en cuenta la dependencia espacial y generalicen el sistema (1.9), (1.10), (1.11), (1.12). En este caso el sistema de ecuaciones que se obtiene es 1 ∂ 2V ∂V = C + ḡN a m3 h(V − VN a )2πr R ∂x2 ∂t +{ḡk n4 (V − Vk ) + ḡe (V − Ve )}2πr , (1.13) ∂m = αm (1 − m) − βm m , ∂t (1.14) ∂h = αh (1 − h) − βh h , ∂t (1.15) ∂n = αn (1 − n) − βn n , (1.16) ∂t donde r es el radio del axón, R es la resistencia por unidad de longitud en el interior del axón y C la capacitancia de la membrana por unidad de longitud. Para un resumen de los experimentos realizados por Hodking y Huxley y de los resultados obtenidos consultar [21]. También se puede consultar [40]. El modelo es importante ya que describe la evolución temporal del potencial de membrana en función de las corrientes iónicas subyacentes. Sin embargo, no toma en cuenta los eventos moleculares y quı́micos subyacentes al proceso, y por lo tanto no es posible predecir cómo influyen en el proceso los cambios en el nivel quı́mico y molecular. Además no es un modelo universal, es decir, se aplica únicamente al potencial de membrana de una neurona del calamar gigante. 21 El modelo de H-H incorpora únicamente tres corrientes iónicas, sodio, potasio y una corriente de filtración, y debido a esto, el modelo consiste de un sistema de 4 ecuaciones diferenciales ordinarias. Existen otros modelos donde se incorporan más corrientes iónicas, por ejemplo, Bucholtz, [16] elabora un modelo de la L. P. neurona en el ganglio estomatogástrico del cangrejo. Este modelo consiste de un sistema de 14 ecuaciones diferenciales ordinarias. Otros neurofisiólogos elaboran modelos de neuronas que siguen esencialmente los principios del modelo de H-H, los cuales incorporan más corrientes iónicas o toman en cuenta las variaciones de las concentraciones de ciertos iones en el interior de la membrana. En [21] se presentan otros modelos de neuronas, también se pueden ver otros modelos en [99], [100]. El estudio matemático de estos modelos es bastante complejo debido al número de ecuaciones diferenciales que aparecen. Por lo general son “intratables” analı́ticamente y a veces sólo se pueden encontrar soluciones por integración númerica. Se han realizado algunos estudios cualitativos de algunos de estos modelos [58], [111]. Una técnica que se usa frecuentemente es reducir, mediante algún mecanismo, el número de dimensiones del modelo manteniendo las principales caracterı́sticas del mismo. Por ejemplo, Fitzhugh [28], [29], propone un modelo bidimensional para el modelo de H-H Abbot, Kepler [2] proponen un método de reducción más sistemático que el de Fitzhugh, ya que reducen el modelo de H-H a dos dimensiones, y Golomb, Guckenheimer, Gueron [39], aplican este método para reducir el modelo de Buchholtz a 7 dimensiones. Doya, Selverston [26] elaboran un método de reducción de variables usando redes neuronales artificiales. 1.7 REDES NEURONALES El estudio de la estructura y funcionamiento de una neurona es un paso importante en el estudio del cerebro, pero el cerebro está compuesto de aproximadamente 1011 neuronas densamente interconectadas, organizadas en grupos de diversos tamaños. Las neuronas de un mismo grupo pueden interactuar entre sı́ y también pueden interactuar los grupos entre sı́ y frecuentemente se dan estos tipos de interacción de manera simultánea. La estructura 22 de estos grupos y sus mecanismos de interacción no son muy conocidos. Los estudios experimentales de estos grupos de neuronas son difı́ciles de realizar. Los modelos de redes neuronales (un conjunto de unidades elementales interconectadas) son una herramienta importante para resolver muchos problemas en el área de la ingenierı́a de la computación, matemáticas, neurofisiologı́a, etc. En cada una de estas áreas se interesan en diferentes aspectos de las redes neuronales, dependiendo de los problemas que se quieran resolver. A los neurofisiólogos les interesa estudiar redes neuronales con la finalidad de estudiar el cerebro humano. Ellos desean construir redes neuronales “realistas” que imiten ciertas capacidades del cerebro como las sensoriales, las de aprendizaje y las relacionadas con la memoria. También desean construir redes que describan los mecanismos subyacentes a los patrones rı́tmicos que se detectan en el cerebro. Para los ingenieros, computólogos y matemáticos, interesa construir redes neuronales con fines computacionales. A estas últimas se les conoce como redes neuronales artificiales y frecuentemente tienen poca relación con lo que ocurre en el cerebro. Las redes neuronales se construyen siguiendo ciertas propiedades que tiene el cerebro. Están constituidas por un conjunto de n unidades elementales llamadas neuronas artificiales, unidades de procesamiento o nodos que están conectados entre sı́. Las propiedades de las redes dependen del número de neuronas de que consta la red y de la forma en que se interconectan. Cada nodo se modela considerando algunas caracterı́sticas de las neuronas reales. Como mencionamos anteriormente una neurona real recibe la información por las dendritas, la procesa en el cuerpo celular y bajo ciertas condiciones emite potenciales de acción. Si la red tiene n nodos, a cada nodo i se le asignan tres cantidades: la entrada neta Si al nodo i, Ui = Ui (t), el estado interno del nodo en el instante t (potencial de membrana de una neurona real), la señal de salida yi del nodo i (número de potenciales de acción que dispara la neurona por unidad de tiempo) que es función del estado interno, es decir yi = fi (Ui ) , 23 donde fi transforma el estado interno Ui en una señal de salida yi . La entrada Si al nodo i, usualmente se considera de la forma Si = n X Wij yi , j=1 donde Wij es el tercer tipo de magnitud asociada a un nodo y se llama peso sináptico. Esta cantidad nos indica el grado de conexión entre el nodo i y el nodo j. El peso Wij puede ser constante o dependiente del tiempo y puede ser positivo o negativo según corresponda a una conexión excitatoria o inhibitoria respectivamente. Se considera que el conocimiento se encuentra representado en los pesos sinápticos y que los procesos de aprendizaje implican cambios en los pesos sinápticos. Los modelos de redes neuronales que se obtienen, dependen de cómo se relacionan las cantidades asignadas a cada nodo. El primer modelo que se construyó fue el modelo de Mc Culloch-Pitts [80] que tiene las siguientes caracterı́sticas. 1. Wij constantes. n 1 , si P W y ≥ θ (la neurona “dispara”), θ umbral de la neurona i i ij i i 2. yi = fi (Ui ) = i=1 0, en el otro caso . En este caso se dice que el nodo o neurona artificial es binario, es decir está activado o está desactivado dependiendo de si la magnitud Si rebasa un umbral o no. En otros modelos lo que se construye es una ecuación diferencial en Ui que describe la evolución temporal de Ui : dUi = Gi (Ui , Si ), i = 1, 2, ..., n . dt Por ejemplo en el modelo de Hopfield [59], [60]: τi dUi = −αi Ui + (Si + θi ) , dt 24 Si = n X Wij gj (Uj ) con g, una función sigmoide . j=1 En el modelo de Grossberg [43]: τi n X dUi = −αUi + (γi − βi Ui ) Wij gi (Uj ) + θj . dt j=1 Cuando se quiere estudiar redes neuronales que aprendan, es decir que sean capaces de modificar sus pesos sinápticos, se debe agregar un sistema de ecuaciones diferenciales que describan la evolución temporal de los pesos sinápticos. Las redes neuronales se forman con un conjunto de neuronas interconectadas. Dependiendo de cómo se agrupan las neuronas, las redes se clasifican en: 1. Redes neuronales monocapa (1 capa). Una capa o nivel es un conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino. 2. Redes neuronales multicapa. Con respecto a las conexiones en la red, si ninguna salida de las neuronas es entrada de la misma capa o capas precedentes, se dice que la red es de propagación hacia adelante. Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles previos o del mismo nivel, incluyéndose ellas mismas además de conexiones con neuronas de las capas posteriores, se dice que la red es de propagación hacia atrás. Con respecto al aprendizaje de las redes neuronales, modificación de los pesos sinápticos, las redes neuronales se pueden clasificar como: redes neuronales con aprendizaje supervisado y redes neuronales con aprendizaje no supervisado. En las primeras se precisa de un agente externo (supervisor) que controle el proceso de aprendizaje de la red, y que determina la respuesta de la red a partir de una entrada determinada, en las segundas la propia red controla su propio proceso de aprendizaje. En ambos tipos de redes se requiere conocer las reglas de aprendizaje –criterios que se siguen para modificar los pesos sinápticos–. El aprendizaje 25 supervisado se puede llevar a cabo de tres maneras: aprendizaje por corrección de error, por esfuerzo y estocástico. En el aprendizaje no supervisado se puede llevar a cabo, entre otras maneras, el aprendizaje Hebbiano y el aprendizaje competitivo y cooperativo. Para mayor información sobre este tema recurrir a [11], [12], [31] y [55]. El primer modelo de red neuronal artificial, llamada Perceptron, fue desarrollado por Rosenblatt [98]. El Perceptron es una red neuronal con aprendizaje supervisado, con regla de aprendizaje de corrección de error, de propagación hacia adelante que consiste de dos capas, una de entrada - que tiene n neuronas lineales - y la otra capa, que consta de una sola neurona, es la capa de salida. El Perceptron es capaz de decidir cuándo una entrada presentada a la red pertenece a una de las dos clases que es capaz de reconocer. La única neurona de salida del Perceptron realiza la suma ponderada de las entradas, resta el umbral y pasa el resultado a una función de transferencia de tipo escalón. La regla de decisión es responder +1 si el patrón presentado pertenece a la clase A, o −1 si patrón pertenece a la clase B; A y B son las dos clase que el Perceptron es capaz de reconocer, previo entrenamiento. El Perceptron funciona cuando el conjunto de n−adas, cuyas componentes son las entradas a las n−neuronas de la capa de entrada, pueden ser separadas P por un hiperplano n−dimensional - el correspondiente a N i=1 Wi Xi − Θ = 0; donde Wi es el peso correspondiente a la entrada Xi y Θ el umbral. En general esto no siempre se puede hacer. Posteriormente se desarrolla el Perceptron multicapa [11], [31]. El Adaline y el Madaline son redes neuronales desarrolladas por Widrow y Hoff [118] en 1960. La arquitectura del Adaline y del Madaline son esencialmente la misma que la del Perceptron. Lo que cambia es la regla de aprendizaje ya que Adaline y Madaline usan la llamada regla delta de Widrow - Hoff o regla del mı́nimo error cuadrado (LMS), basada en la búsqueda de una expresión del error entre la salida deseada y la salida lineal obtenida antes de aplicarle la función de activación escalón (a diferencia de la salida binaria utilizada en el caso del Perceptron). Sus principales aplicaciones están en el campo del procesamiento de señales. También existen redes con aprendizaje supervisado del tipo estocástico, 26 la máquina de Boltzman [56], etc., del tipo aprendizaje con refuerzo, Linear Reward-Penalty o LR−P . Con respecto a las redes con aprendizaje no supervisado se tienen: la red de Hopfield, Learning Matrix, etc. que utilizan el aprendizaje Hebbiano (ajuste de los pesos de las conexiones de acuerdo con la correlación de los valores de activación de las dos neuronas conectadas). Para las que utilizan el aprendizaje competitivo - cooperativo (las neuronas compiten o cooperan unas con otras con el fin de llevar a cabo una tarea) ver [5], [7]. Para mayor información sobre la arquitectura, reglas de aprendizaje, aplicación y limitaciones de las redes que hemos mencionado y a otras más recurrir a: [31], [55]. Cuando se intenta construir modelos de redes neuronales para el estudio del cerebro, los nodos de las redes se pueden interpretar como una sola neurona o como un grupo de neuronas. Matemáticamente no existe ninguna distinción entre estos dos casos, pero si se desea construir redes neuronales que describan ciertos fenómenos que ocurren en el cerebro y que los resultados se correlacionen con mediciones experimentales, la distinción sı́ es importante. Se ha detectado actividad rı́tmica en algunas estructuras del cerebro: oscilaciones en el tálamo, oscilaciones en el sistema bulbo olfativo, corteza, etc. Algunos modelos de redes neuronales se elaboran tomando en cuenta datos anatómicos y fisiológicos con la finalidad de describir estos fenómenos temporales rı́tmicos. Por ejemplo: Lopes da Silva [76], [77] elabora un modelo de red neuronal que intenta explicar los orı́genes del ritmo α en el perro con redes neuronales creadas con neuronas de la corteza y del tálamo. Destexhe, Contreras, Sejnowski, y Steriade [24] elaboran un modelo de red neuronal para neuronas del núcleo reticular talámico y obtienen resultados teóricos de tipo oscilatorio con frecuencias de 7 a 14 Hz y otros en el rango de 0.5 - 1 Hz dependiendo de los parámetros que se consideran. 27 Freeman [33], [34], [35], elabora un modelo que describe el modo en que la información sensorial puede ser procesada en un modo distribuido para una de las formas más simples de corteza. El modelo se elabora con base en estudios anatómicos y fisiológicos sobre las interconexiones neuronales entre el bulbo olfativo y la corteza en gatos y conejos e intenta relacionar los resultados teóricos con datos electroencefalográficos obtenidos en experimentos con estos animales. Menon [81], estudia el fenómeno de las oscilaciones temporales en el cerebro, considerando que éstas se deben a la interacción de neuronas inhibitorias y neuronas excitatorias. Elabora un modelo en el cual considera dos grupos de neuronas, una que tiene únicamente conexiones inhibitorias y el otro grupo que tiene únicamente conexiones excitatorias. Estudia la dinámica de estos dos grupos de neuronas interconectados elaborando un modelo de dos ecuaciones integro-diferenciales acopladas. Nuñez comenta en [89], [92] que la mayorı́a de los modelos de redes neuronales no surgen para estudiar las bases fisiológicas de los EEG en el cuero cabelludo sino para estudiar algunas funciones cerebrales, como por ejemplo la memoria de corto plazo. También menciona que si se quiere “explicar” por medio de redes neuronales los patrones rı́tmicos temporales que se miden con electrodos en el cuero cabelludo (EEG), no basta que se construyan redes (aún basados en datos anatómicos y fisiológicos) que produzcan soluciones oscilatorias con la misma frecuencia que se obtienen en los EEG. Por lo tanto, es necesario considerar la estructura espacial de la red para considerar los potenciales correspondientes y compararlos con los que se obtienen en los EEG, ya que la magnitud de un potencial depende de la configuración geométrica de sus fuentes. Nuñez elabora un modelo de interacción neuronal en la corteza a la cual considera como un medio continuo, donde la columna de corteza es la unidad fundamental. El modelo consiste en un par de ecuaciones integrales acopladas que relacionan la actividad sináptica excitatoria e inhibitoria en una columna de corteza en un tiempo t con los potenciales de acción que se “disparan” en las otras columnas en tiempos anteriores, tomando en cuenta las conexiones que existen entre las columnas y las velocidades de propagación de los potenciales de acción, ver [87], [88], [89] y [92]. 28 Nuñez elabora el modelo con la finalidad de estudiar las bases fisiológicas de los patrones espacio temporales medidos con electrodos ubicados en el cuero cabelludo. Considera que para el estudio de estos patrones espaciotemporales la columna de corteza es la unidad a considerar, ya que los EEG se obtienen con electrodos que captan la actividad eléctrica promedio de varios centı́metros cuadrados de corteza, además de la homogenidad que ofrece la corteza a nivel de cada capa. En el siguiente capı́tulo analizaremos con más detalle este modelo. 29 1.8 MODELOS DE MEDIO CONDUCTOR En el funcionamiento del cerebro, la actividad eléctrica es un elemento fundamental; la comunicación entre las neuronas y entre estructuras del cerebro se realiza a través de ella. Otro elemento fundamental en el funcionamiento del cerebro es la actividad neuroquı́mica. Se conoce muy poco de cómo interactúan ambos elementos en el funcionamiento del cerebro. La actividad eléctrica del cerebro puede ser medida en muchas escalas espacio-temporales y con diversos grados de resolución se puede medir la actividad eléctrica de una sola neurona, de grupos de neuronas, y usando electrodos colocados en el cuero cabelludo, la del cerebro en su totalidad. Se conocen diversos patrones espacio-temporales de la actividad eléctrica en distintos niveles, y se desea estudiar las bases fisiológicas subyacentes a ellos. Se han usado diversos modelos: redes neuronales y sistemas cooperativoscompetitivos de interacción neuronal, para describir los posibles mecanismos que originan estos patrones espacio-temporales. Pero estos modelos, deben ir acompañados de otros modelos que toman en cuenta otras caracterı́sticas del cerebro como son las propiedades electromagnéticas derivadas de la activación de fuentes de corrientes impresas en el cerebro y por ello es necesario estudiar cómo se propagan las corrientes eléctricas a través de los distintos tejidos del cerebro. No basta con determinar que ciertas redes neuronales correspondientes a ciertas estructuras del cerebro producen oscilaciones teóricas que coinciden con las oscilaciones detectadas con los EEG medidos en diversas partes del cerebro. Los potenciales dependen de la distribución de las fuentes y de las propiedades eléctricas del medio en que ellos se propagan. En el estudio del cerebro, como medio conductor, una herramienta importante es la teorı́a del campo electromagnético que en el nivel microscópico nos describe la relación entre cargas, corrientes eléctricas, campos eléctricos y magnéticos y en el nivel macroscópico debe incluir ciertas relaciones experimentales para la permitividad (para aislantes), la conductividad (para conductores) y la permeabilidad (para materiales magnéticos). Pero nuevamente, si se quieren elaborar modelos cuyos resultados se puedan relacionar 30 con datos experimentales, es necesario determinar en qué escala espacio temporal se está trabajando. En cualquier escala espacio temporal que se use, las mediciones electroencefalográficas se obtienen como promedio de la actividad eléctrica de un cierto volumen de tejido y en cierto perı́odo de tiempo y por tanto, las conductividades, las permitividades y las permeabilidades magnéticas de los tejidos deben considerarse en la misma escala. Además las variables de nuestro modelo deben estar en la misma escala espacio-temporal que la de las mediciones. El problema que se requiere estudiar es determinar la ubicación y propiedades de las fuentes de corriente generadas por la actividad del cerebro a partir de las mediciones eléctricas y magnéticas efectuadas en el cuero cabelludo o en otras estructuras del cerebro. Este problema no tiene solución única; en el sentido de que la misma medición de potencial o campo magnético puede ser generada por diferentes distribuciones de fuentes de corriente concentradas en la masa cerebral. El problema inverso no tiene solución única, aunque se conozca la distribución de potencial (o campo magnético) en todos los puntos del cuero cabelludo. Pero la situación real es todavı́a peor ya que las mediciones del potencial se obtienen únicamente en un conjunto finito de puntos del cuero cabelludo donde están ubicados los electrodos. El problema es sumamente complejo ya que es necesario considerar la geometrı́a y propiedades electromagnéticas de las distintas regiones que intervienen –corteza, cráneo, cuero cabelludo, etc.– con el objetivo de relacionar los datos obtenidos en el cuero cabelludo con sus posibles fuentes. Aún el problema directo, es decir, dada la distribución de fuentes de corriente, la conductividad de los diversos tejidos y la permeabilidad magnética, determinar el campo electromagnético en cualquier punto, ya es bastante complejo. Usualmente lo que se hace, en ambos problemas, es introducir simplificaciones con base en información conocida sobre el cerebro y resolver el problema con esas simplificaciones. Estas simplificaciónes dependen mucho de la escala en que se está trabajando. 31 La primera simplificación importante que se introduce es el considerar que se puede aplicar al cerebro la teorı́a electromagnética cuasi-estática [92]. Es conocido que en un medio conductor con conductividad σ las cargas se distribuyen muy rápidamente, es decir, la densidad ρ de carga decrece como σ ρ ∼ e− εo t , donde εo es la constante dieléctrica. Para la conductividad del hueso 1 del orden de 200 y para la piel y la masa cerebral es mucho menor. Por este motivo se tiene que σ εo es ¯ ¯ ¯ ∂ρ ¯ σ − εσ t ¯ ¯ ¯ ¯∼ e o ¯ ∂t ¯ εo y como se conoce experimentalmente que el intervalo de tiempo en que la densidad de corriente J~ en el cerebro varı́a apreciablemente, es mucho mayor que εσo , entonces en la ecuación de continuidad ∂ρ ∇ · J~ + =0 ∂t se puede despreciar ∂ρ ∂t y queda ∇ · J~ = 0 . Además se considera que las corrientes que circulan en el cerebro son de dos tipos: Ohmicas, es decir, generadas por cargas en movimiento a través del fluido extracelular y corrientes primarias o impresas, J~p , que se mueven a través de las membranas celulares y aparecen en las zonas activas. Entonces se tiene ~, J~ = J~p − σ E ~ es el campo eléctrico. donde E Del desacoplamiento entre el campo eléctrico y magnético se tiene que ~ = 0 y, por lo tanto, E ~ = ∇u, donde u es el potencial del campo rot E electrostático. 32 De la ecuación de continuidad simplificada se obtiene que en la masa del cerebro se cumple la ecuación ∇u = 1 ∇ · J~p . σ Si además se considera un sistema de varias capas donde la región Ω1 ocupada por el cerebro está cubierta por otras regiones disjuntas Ωi (i ≥ 2) que representan el fuido intracraneal, el cráneo, la piel, etc., entonces en cada frontera de separación entre dos regiones Ωi y Ωi+1 , se deben satisfacer condiciones del tipo à σi ∂u ∂ni !− à = σi+1 ∂u ∂ni !+ + f~i , u− = u+ , donde σi es la conductividad en cada Ωi , ni es el vector unitario normal exterior a Ωi en la parte común de las fronteras de Ωi y Ωi+1 . El supraı́ndice − o + indica que el valor lı́mite a la frontera de la cantidad indicada se toma desde Ωi o desde Ωi+1 respectivamente. Mediante f~i se denota la componente normal de la densidad de corriente superficial, la cual en este modelo puede estar presente únicamente en la frontera del cerebro, es decir, en la corteza cerebral. Si se denota por Ωe la región cuya frontera exterior Se coincide con el cuero cabelludo, entonces el problema único consiste en determinar J~p y f~1 a partir de las mediciones de u sobre Se . Este problema está mal planteado y por ello se necesita introducir algoritmos de regularización en su solución. Una de las simplificaciones más importantes en el estudio del problema inverso consiste en representar f~1 y J~p en forma de un número finito de dipolos puntuales y, en este caso, el problema se reduce a la localización de sus posiciones y momentos, es decir, a encontrar 6N parámetros donde N es el número de dipolos propuestos para la fuente activa [103]. 33 1.9 CONCLUSIONES Como hemos podido ver, existe un gran número de técnicas y métodos para determinar anomalı́as de carácter anatómico o funcional en el cerebro, ası́ como para el estudio de los patrones temporales ritmicos de la actividad eléctrica del mismo. Sin embargo, ninguno de estos métodos puede describir la interacción neuronal entre diferentes regiones del cerebro ni puede explicar el origen fisiológico de los patrones temporales rı́tmicos de la actividad eléctrica. El objetivo de este trabajo es estudiar modelos que son una generalización de los introducidos por Paul Nuñez en [89], [92] que, en conjunto con los modelos de medio conductor, permitan describir la evolución temporal de la interacción neuronal masiva en la corteza cerebral y también dar alguna explicación matemáticamente fundamentada de los orı́genes fisiológicos de los patrones temporales rı́tmicos de la actividad eléctrica. Esperamos además que este tipo de trabajo sirva como fundamento para el desarrollo de software más apropiado para el análisis clı́nico de los EEG. 34 Capı́tulo 2 MODELACIÓN GLOBAL DE LA ACTIVIDAD SINÁPTICA DE LA CORTEZA CEREBRAL 2.1 INTRODUCCIÓN Para el estudio de las correlaciones existentes entre ciertos estados fisiológicos y las mediciones electroencefalográficas –a nivel de cuero cabelludo o de corteza– se han elaborado diversos modelos de interacción neuronal a nivel de corteza-tálamo. Estos modelos se pueden dividir, grosso modo, en modelos locales, modelos globales y modelos mixtos. En los modelos locales [33], [34], [75], [76], [77], [95], se tratan de explicar las propiedades espacio-temporales de los EEG con base en propiedades a nivel de neurona, redes neuronales discretas o redes neuronales distribuidas en el rango de milı́metros; las propiedades temporales de los EEG son determinadas por los retrasos sinápticos como son los tiempos de respuesta y de decrecimiento de los potenciales postsinápticos. En los modelos globales [87], [88], [89], [90], [92], se toman como elemento importante los sistemas de fibras corticorticales (cuyas longitudes se encuentran en el rango de centı́metros) y el hecho de que la corteza es una estructura cerrada. En estos modelos se considera que el EEG medido sobre el cuero cabelludo es fundamentalmente el resultado de la interacción de neuronas corticales a través de los potenciales de acción. Se considera que 35 ciertos patrones espacio-temporales de los EEG se pueden explicar tomando en cuenta los retrasos debido a la velocidad finita de propagación de los potenciales de acción que viajan por las fibras corticorticales y por el hecho de que la corteza es una estructura cerrada. Nuñez considera [92] que los modelos locales pueden ser importantes en ciertos estados fisiológicos del cerebro y que en otros casos, como en aquellos que interviene un mı́nimo de actividad cognitiva (sueño, coma, anestesia) se pueden explicar con los modelos globales; pero que dada la extrema complejidad de los interacciones neuronales se requieren modelos que toman en cuenta la interacción neuronal en las diversas escalas espacio-temporales [64], [65], [66], [67], [68]. En este capı́tulo analizaremos el modelo global elaborado por Nuñez. Este modelo será el punto de partida para la elaboración de nuestro modelo. El modelo describe la evolución de la actividad sináptica en la corteza y consiste en un par de ecuaciones integrales que relacionan la actividad sináptica en cada columna de corteza en un instante de tiempo t con los potenciales de acción que se generan en tiempos anteriores en las demás columnas de corteza, tomando en cuenta las conexiones que existen entre las columnas de corteza y las velocidades de propagación de los potenciales de acción. También se pueden tomar en cuenta los retrasos sinápticos o incluir circuitos locales, convirtiéndolo en un modelo local-global más completo. Con el modelo global, sin tomar en cuenta los retrasos locales, se estudia bajo qué condiciones se tienen soluciones de tipo ondulatorio y se comparan estas soluciones con los datos obtenidos a través del EEG. Sus resultados teóricos “coinciden” con los obtenidos experimentalmente para el ritmo α pero no incluye otros estados fisiológicos. 2.2 BASES FISIOLÓGICAS PARA LA MODELACIÓN DE LA ACTIVIDAD SINÁPTICA EN LA CORTEZA CEREBRAL La corteza cerebral es un sistema muy complejo que presenta interacciones en distintos niveles: neurona, grupos de neuronas y entre grupos de neuronas. Aun ası́ la corteza presenta ciertas caracterı́sticas anatómicas y fisiológicas 36 que permiten elaborar modelos de interacción neuronal cuyas variables y parámetros se pueden correlacionar con las medidas electroencefalográficas obtenidas en el cuero cabelludo. El modelo que presentaremos toma como unidad fundamental la columna de corteza y pretende describir las interacciones entre las columnas de corteza, a través de sus interconexiones y la interacción de la corteza con otras estructuras del cerebro (principalmente el tálamo); más precisamente se describirá la evolución espacio-temporal de la actividad sináptica de las columnas de corteza. Los elementos del modelo son: a) h± (x, t) − La densidad de sinapsis activas o de actividad sináptica (+ para las sinapsis de tipo excitatorio, − para las de tipo inhibitorio), en la columna x en el tiempo t. h± (x, t) representa el número de sinapsis activas por cm3 en la columna x en el tiempo t (1/cm3 ) b) g(x0 , t) − La fracción del total de neuronas de la columna x0 que generan potenciales de acción en el tiempo t (adimensional) c) R± (x0 , x, v) − El número de conexiones sinápticas por cm3 en la columna x por unidad de área en x0 y por unidad de velocidad, es decir, R± (x0 , x, v)dx0 dv representa el número de conexiones sinápticas por cm3 en la columna x producidas por las neuronas que se encuentran en las columnas de x0 a x0 + dx0 y por cuyos axones los potenciales de acción “viajan” con velocidad entre v y v + dv (+ para las conexiones de tipo excitatorio, − para las de tipo inhibitorio). d) S± (x) − La densidad de sinapsis en la columna x (+, para las sinapsis excitatorias, − para las inhibitorias) (1/cm3 ). Se tiene que: Z ∞Z 0 S R± (x0 , x, v)dx0 dv = S± (x) , donde S es la superficie de la corteza. 37 e) F± (v) − La fracción del total de neuronas de la corteza por unidad de velocidad (seg/cm), es decir, F± (v)dv representa la fracción del total de neuronas de la corteza que generan su potencial de acción con velocidad entre v y v + dv, (+ para las conexiones sinápticas excitatorias, − para las inhibitorias). f ) h0± (x, t) − La densidad de sinapsis activas o de actividad sináptica ( + para las sinapsis de tipo excitatorio, − para las de tipo inhibitorio), en la columna x en el tiempo t. Actividad sináptica producida por los potenciales de acción que se generan en otras estructuras del cerebro, fundamentalmente el tálamo y que “llegan” a la columna x en el tiempo t. h0± (x, t) representa el efecto producido en la columna x en el tiempo t por las estructuras internas del cerebro que tienen conexiones en la columna x. Con estas definiciones es fácil ver que si S es la superficie de la corteza cerebral, entonces se tienen las ecuaciones: h+ (x, t) = ho+ (x, t) h− (x, t) = ho− (x, t) + + Z ∞Z 0 Z ∞Z 0 d(x, x0 ) R+ (x , x, v)g(x , t − ) dx0 dv , v S (2.1) d(x, x0 ) ) dx0 dv , R− (x , x, v)g(x , t − v S (2.2) 0 0 0 0 donde d(x, x0 ) es la distancia geodésica entre dos puntos de la corteza S. Este sistema de ecuaciones integrales nos dice que la densidad de actividad sináptica tiene dos componentes. La primera de ellas es debida al “input” que reciben la corteza y las fibras corticorticales proveniente de estructuras interiores durante un estado fisiológico fijo. La componente integral expresa la idea de que los potenciales de acción que se disparan en la columna x0 se trasladan a través de las fibras corticorticales causando actividad sináptica en la columna x en un tiempo posterior que depende de la distancia que separa x de x0 y de la velocidad de propagación de los potenciales de acción. 38 En general esta distancia no tiene que coincidir con la euclideana aunque puede ser considerada como tal para el análisis cualitativo. A continuación enumeraremos las hipótesis de trabajo y las principales consideraciones anatómicas para el trabajo con este modelo. 1. No están considerados los retrasos debidos a la transmisión sináptica –retrasos locales– sino, únicamente el debido a la velocidad finita de propagación de los potenciales de acción a lo largo de los axones (fibras corticorticales). 2. En el modelo (2.1), (2.2) se desprecia la existencia de circuitos de retroalimentación entre la corteza y el tálamo ya que el número de fibras corticorticales es mucho mayor que las fibras talamocorticales. En efecto las primeras representan el 99% del total [72]. No resulta dı́ficil incluir en este modelo global la presencia de estos circuitos de retroalimentación. Un ejemplo importante de estos circuitos es el circuito córtico-estriato-nigro-tálamocortical asociado a la actividad motora. 3. Las neuronas corticales están colocadas en columnas que presentan una gran homogeneidad en su distribución espacial con respecto a la profundidad. Esto quiere decir que es imposible distinguir entre dos cortes perpendiculares realizados en dos secciones diferentes de la corteza cerebral. Por este motivo podemos considerar que la corteza tiene una estructura estratificada uniforme compuesta por seis capas debido a las diferencias en las densidades relativas de diferentes tipos de neuronas localizadas a distintas profundidades corticales y que en una primera aproximación las conexiones en el plano de la corteza son del mismo tipo en todas las direcciones y por ello sólo dependen de la distancia entre las columnas consideradas es decir: R± (x0 , x, v) = R± (d(x, x0 ), v) . (2.3) Las neuronas corticales se pueden clasificar de acuerdo con la forma del cuerpo celular, por la longitud de su axón y por la extensión y distribución espacial del árbol dendrı́tico. Además del tipo de transmisor 39 que libera, el blanco axonal, el tipo de sinapsis, etc. Para un estudio más detallado sobre esta tema recurrir a [82]. En primera aproximación, las neuronas corticales las dividiremos en dos grandes tipos: excitatorias (neuronas piramidales y estrelladas espinosas) e inhibitorias (todas las interneuronas). Las interneuronas inhibitorias se dividen en varios tipos y se consideran que pueden tener varias escalas espacio–temporales. Pero en nuestro caso tomaremos que la inhibición ocurre rápidamente. Las piramidales tienden a ocupar volúmenes cilı́ndricos con axones y dendritas alineadas perpendicularmente a la superficie cortical y aproximadamente de 2/3 a 3/4 de las neuronas corticales son de este tipo. Las neuronas estrelladas ocupan volumenes más esféricos. El cuerpo celular de las neuronas ocupa alrededor de un 10% de la superficie neuronal. La mayor parte del área superficial de la neurona está compuesta por sus ramificaciones dendrı́ticas. El número de ramas dendrı́ticas que parten de una neurona y que intersectan a una superficie esférica concéntrica, centrada en el cuerpo celular de la neurona, decrece exponencialmente según una ley del tipo: Número de ramas ≈ exp(−λ· distancia radial) donde λ−1 (cm) es la escala caracterı́stica de longitud que determina el decrecimiento en e−1 veces del número total de conexiones corticales a partir de una neurona. Por ejemplo, para las células estrelladas y las dendritas basales de las células piramidales en las cortezas visual y motora del gato y el ratón se ha comprobado experimentalmente que λ = 350 cm−1 . La relación para el decrecimiento de las ramas generadas a partir de una dendrita es de orden polinomial en lugar de exponencial. 4. Las interconexiones entre neuronas corticales pueden ser divididas en dos grandes grupos: las conexiones intracorticales que son de rango corto y que tienen una longitud promedio de menos de 1 mm en humanos y las conexiones corticorticales que tienen una longitud promedio de hasta varios centı́metros en humanos. La materia blanca subcortical está compuesta por las fibras de asociación corticorticales que están ubicadas paralelamente a la superficie 40 cortical (Fig. #7). Mientras que las conexiones intracorticales pueden ser tanto excitatorias como inhibitorias, las fibras de asociación (axones de las células piramidales) que constituyen la mayor parte de la materia blanca son solamente conexiones de tipo excitatorio. Las neuronas piramidales que envı́an axones a otras regiones interiores del cerebro como el tálamo, terminan únicamente en sinapsis excitatorias. En las neuronas piramidales existen otro tipo de neuronas intracorticales que también terminan en sinapsis excitatorias. Sin embargo la cantidad de sinapsis excitatorias en humanos realizadas por las fibras de asociación (corticorticales) es mucho mayor que las que son producidas por axones intracorticales, aproximadamente el 80% del total de las sinapsis excitatorias son por las fibras de asociación. Aunque en ratones es del orden del 50%. Para mayor información sobre las fibras de asociación se puede consultar [72]. 5. La mayorı́a de las fibras de asociación mielinadas tienen diámetros entre 1 y 2 µ y en ellas las velocidades de los potenciales de acción son proporcionales al diámetro y fluctúan entre 6 y 12 m/seg. 6. El área de la superficie total de ambas mitades del cerebro, las cuales están separadas por el cuerpo calloso es del orden de 1600 cm2 . Las 2/3 partes de esta superficie están en las fisuras incluyendo la fisura sagital que separa las dos mitades del cerebro. De estas dos terceras partes la mitad del área está contenida en las pequeñas fisuras incluyendo la fisura sagital. Esto nos dice que el área efectiva del medio donde se propagan las ondas es diferente de la superficie cortical. Un problema importante en los modelos globales del EEG consiste en saber cuándo ambas mitades del cerebro deben ser consideradas por separado. La materia blanca está formada por fibras de aferentes y eferentes que van y vienen del interior del cerebro y la médula espinal, junto con fibras de asociación que conectan diferentes áreas corticales 41 y fibras comisurales que conectan las dos mitades del cerebro fundamentalmente a través del cuerpo calloso. En humanos el número total de fibras comisurales que van de un hemisferio a otro del cerebro a través del cuerpo calloso es del orden de 2 × 108 , la cual es significativamente menor que el número de fibras de asociación que entran a la corteza, que es del orden de 1010 . Esto hace pensar que las fibras comisurales permiten una conexión muy débil entre los dos hemisferios cerebrales, por lo cual parece ser que el análisis de los fenómenos ondulatorios debidos a la actividad cerebral debe restringirse a un sólo hemisferio que puede identificarse con la cuarta parte de un elipsoide de revolución. El cerebro humano tiene 45cm de circunferencia (sin contar las fisuras) de la superficie: del polo occipital al polo frontal, a lo largo de la lı́nea media. Esta idea resulta consistente con los resultados experimentales obtenidos en pacientes a quienes se les ha medido la frecuencia del ritmo α con los dos hemisferios acoplados y con cuerpo calloso cortado. Si los dos hemisferios acoplados se comportaran como un sistema único se esperarı́a que al efectuar el corte en el cuerpo calloso hubiera un significativo incremento de la frecuencia del ritmo α, lo cual no ocurre. 7. Los potenciales del EEG medidos en el cuero cabelludo se deben a una actividad sincrónica de neuronas corticales que cubren un área de al menos varios centı́metros cuadrados de corteza. Por este motivo la medición del EEG corresponde a un nivel jerárquico macroscópico de modelación donde la homogeneidad e isotropı́a son dos consideraciones importantes. En cambio, del hecho que las conexiones corticorticales son inhomógeneas a niveles jerárquicos pequeños se concluye que los modelos de actividad medida con microelectrodos requiere la inclusión de parámetros de conexión preferencial. Como las neuronas piramidales generan grandes momentos dipolares y están orientadas perpendicularmente a la superficie de la corteza, ellas son capaces de producir corrientes sincronizadas de suficiente magnitud para ser medidas sobre el cuero cabelludo. Debido a esto y a la superioridad numérica de las neuronas piramidales junto con el hecho de que 42 son ellas las que producen la mayor parte de sinapsis excitatorias en la corteza a través de sus axones (fibras corticorticales), es que son estas neuronas las principales responsables de la medición del EEG sobre el cuero cabelludo. De aquı́ concluimos que para una primera modelación de la contribución global de la corteza al EEG se debe considerar la actividad sináptica excitatoria producida por las neuronas piramidales ası́ como la actividad sináptica inhibitoria producida sobre ellas por las neuronas estrelladas. Como mencionamos al inicio de este capı́tulo, en esta tesis nos dedicaremos al estudio de modelos teóricos de la actividad global de la corteza cerebral que dan lugar al EEG. Estos modelos tienen en cuenta las consideraciones anatómicas que hemos descrito en los puntos 1-7 anteriores. A diferencia de ellos, los modelos de circuitos locales deben incluir parámetros de conexión preferenciales, en lugar de la homogeneidad que se considera en los modelos de actividad global, lo cual se pone de manifiesto en la selección de las funciones R± (x0 , x, v) para cada vı́a del circuito. Si los circuitos son pequeños puede considerarse que la velocidad de propagación v es infinita no siendo ası́ en los circuitos en que aparecen interacciones de largo alcance, en los cuales el tiempo que se demora al viajar un potencial de acción de un lugar a otro del circuito puede ser del orden de las constantes de tiempo de las neuronas piramidales. Por otra parte, como ya mencionamos en el punto 1, los modelos locales deben considerar los retrasos temporales debido a la transmisión sináptica, que son más pequeños que los retrasos debidos a la velocidad finita de propagación de los potenciales de acción a través de los axones, y por ello no se consideran en los modelos globales. 43 2.3 DESCRIPCIÓN Y SIMPLIFICACIONES EN EL MODELO GLOBAL DE ACTIVIDAD SINÁPTICA EN UNA BANDA DE CORTEZA. Para evitar repeticiones innecesarias, en este capı́tulo el subı́ndice + siempre se referirá a las sinapsis de tipo excitatorio y el subı́ndice − a las de tipo inhibitorio Aplicaremos el modelo general (2.1), (2.2) al estudio de la actividad del EEG producida por una banda infinitamente delgada de la corteza que por conveniencia, supondremos infinitamente larga. Para el análisis cualitativo obviaremos la geometrı́a de la corteza y supondremos que la banda coincide con una recta. En este caso, que llamaremos el caso unidimensional, los elementos del modelo son los mismos, sólo cambian las unidades con que se trabajará. Ası́, h± (x, t) representará el número de sinapsis activas por cm2 en la columna x en el tiempo t (1/cm2 ). R± (x0 , x, v) representará el número de sinapsis, por cm2 en la columna x en el tiempo t por unidad de longitud en x0 y por unidad de velocidad (seg/cm4 ). Es decir, R± (x0 , x, v)dx0 dv representará el número de sinapsis, por cm2 en la columna x en el tiempo t producidas por las neuronas que están ubicadas desde la columna x0 hasta la columna x0 +dx0 y por cuyos axones, los potenciales de acción “viajan” con velocidad entre v y v + dv, h0± (x, t) representará el número de sinapsis activas en la columna x por cm2 , esta actividad sináptica es la producida por los potenciales de acción que se generan en estructuras internas del cerebro, principalmente el tálamo y que llegan en el tiempo t a la columna x, g(x0 , t) seguirá siendo una cantidad sin dimensiones. Todas las complicaciones del sistema de conexiones intracorticales e intercorticales están “escondidas” en la representación de las funciones R+ y R− . Introduciremos algunas hipótesis adicionales que nos permitirán obtener una expresión para estas funciones que al menos cualitativamente reune las caracterı́sticas principales de este sistema de conexiones. 44 Hipótesis 1 Comenzaremos suponiendo que cada columna está constituida por una cantidad finita N (que no depende de la columna) de sistemas de fibras que se superponen. En primera aproximación se podrı́a considerar que N = 6 corresponde a la distribución de las neuronas en las 6 capas en que usualmente se divide la corteza. Hipótesis 2 Como las sinapsis inhibitorias se producen sólo a nivel local, consideraremos que la densidad de actividad sináptica inhibitoria en una columna de corteza x en un tiempo t se produce por los potenciales de acción que se generan en las columnas “cercanas” a la columna x en tiempos “anteriores”, es decir, las columnas ubicadas fuera de una vecindad de la columna de corteza x no contribuyen a la actividad sináptica inhibitoria en la columna x. Es pertinente mencionar que Nuñez enfoca esta cuestión de manera diferente: considera que la velocidad de propagación de los potenciales de acción que “viajan” por las fibras que tienen conexión sináptica de tipo inhibitorio es “infinita”. Esta hipótesis la justifica por el hecho de que la distancia que recorren los potenciales de acción por estas fibras es muy pequeña. Nosotros consideramos que esta hipótesis no refleja que las sinapsis inhibitorias se producen sólo a nivel local, lo que refleja es que el “efecto” de los potenciales de acción que “viajan” por las fibras que tienen conexión sináptica de tipo inhibitorio es “sentida” instantáneamente en las columnas donde se tienen estas sinapsis inhibitorias. En realidad, para tener en cuenta el hecho de que las sinapsis inhibitorias se producen sólo a nivel local, debemos considerar que los potenciales de acción que “viajan” por las fibras que tienen conexión sináptica de tipo inhibitorio, recorren esas distancias en tiempos más pequeños que los usados por los potenciales de acción que “viajan” por las fibras de largo alcance. Más adelante estudiaremos un modelo que tome en cuenta esta hipótesis. Desde el punto de vista matemático, nuestra hipótesis (el suponer que la actividad sináptica inhibitoria en una columna de corteza es afectada 45 únicamente por los potenciales de acción que se generan en columnas cercanas) nos conducirá a estudiar, en el caso lı́mite, un proceso global de propagación de ondas de actividad sináptica inhibitoria modulada por un proceso local de propagación de ondas de actividad sináptica inhibitoria; mientras que en el caso de Nuñez, lo que se estudia es un proceso global de propagación de ondas de actividad sináptica excitatoria acoplada con un proceso estacionario de actividad sináptica inhibitoria. De esta forma definiremos, para cada n = 1, ..., N : F±n (v) - La fracción del total de neuronas de la corteza por unidad de velocidad (seg/cm) cuyos potenciales “viajan” por las fibras del sistema n-ésimo. Es decir, F±n (v)dv representará la fracción del total de neuronas de la corteza cuyos potenciales “viajan” por las fibras del n-ésimo sistema con velocidad entre v y v + dv. Supondremos que esta cantidad no depende de en cuál columna se ubiquen las neuronas. Ahora la función R± (x0 , x, v) se puede representar en la forma R± (x0 , x, v) = N X n R± (x0 , x, v) . (2.4) n=1 n R± (x0 , x, v) (seg/cm2 ) representa la densidad de conexiones sinápticas en la columna x por unidad de longitud en x0 y por unidad de velocidad ason ciadas con las fibras del n-ésimo sistema. Ası́ R± (x0 , x, v)dx0 dv representará el número de sinapsis por cm2 en la columna x producidas por las neuronas que están ubicadas desde la columna x0 hasta la columna x0 + dx0 y cuyos potenciales de acción “viajan” por el n-ésimo sistema de fibras con velocidad entre v y v + dv. n Supondremos que R± se representa en la forma n n R± (x0 , x, v) = r± (x0 , x)F±n (v) , (2.5) n (x0 , x) (1/cm3 ) será la densidad de conexiones sinápticas en la donde r± columna x, asociadas al n-ésimo sistema de fibras, por unidad de longitud en x0 , ası́ rn (x0 , x)dx0 representará el número de sinapsis por cm2 en la columna x producidas por neuronas que están ubicadas desde la columna x0 hasta la columna x0 + dx0 y cuyos axones están ubicados en el n-ésimo sistema de fibras. 46 n Ahora r± (x0 , x) se puede escribir como el producto de dos factores n r± (x0 , x) = tn± (x0 , x)S±n (x) , (2.6) donde tn (x0 , x) (1/cm) representa el número de neuronas por unidad de longitud en x0 , cuyos axones establecen conexión sináptica en la columna x y dichos axones se encuentran en el n-ésimo sistema de fibras, S±n (x) representa la densidad de sinapsis (1/cm2 ) en la columna x, producida por neuronas cuyos axones se encuentran en el n-ésimo sistema de fibras. De (2.6) se tiene n que R± se puede escribir como el producto de tres factores n R± (x0 , x, v) = tn± (x0 , x)S±n (x)F±n (v) . (2.7) Ahora, haremos la siguiente suposición Hipótesis 3 La densidad de fibras representadas por la función tn± y que conectan neuronas de la columna x0 con la columna x es igual a la densidad de fibras que conectan neuronas de la columna x con x0 . Esta hipótesis es fundamental para la simplificación del modelo (2.1), (2.2) y significa que tn± (x0 , x) = tn± (x, x0 ) . (2.8) Ya hemos comentado que la función tn± (x0 , x) decrece exponencialmente con la distancia entre x0 , y x. Para que se cumpla la propiedad (2.8) supondremos además que: Hipótesis 4 La función tn± (x0 , x) depende únicamente de la distancia entre los puntos x y x en la forma: 0 λn± −λn± |x0 −x| e , (2.9) 2 donde (λn± )−1 (cm) es la escala longitudinal que determina el decrecimiento de conexiones entre dos puntos de la corteza. tn± (x0 , x) = 47 De (2.4) a (2.9) obtenemos R± (x0 , x, v) = N 1X n 0 S±n (x)λn± F±n (v)e−λ± |x −x| . 2 n=1 (2.10) Hipótesis 5 En primera aproximación supondremos que cada sistema de fibras está n caracterizado por una velocidad v± de propagación de potenciales de acción. En este caso: n ). F±n (v) = δ(v − v± (2.11) N 1X 0 n −λn S±n (x)λn± δ(v − v± )e ± |x −x| . 2 n=1 (2.12) Finalmente obtenemos R± (x0 , x, v) = Pasemos ahora a imponer las restricciones que exigiremos a la función g(x0 , t). Hipótesis 6 Los potenciales de acción que se generan en la columna x0 en el instante t dependen de la densidad de actividad sináptica - potenciales postsinapticos - y de la intensidad de la actividad neuroquı́mica (concentraciones de neurotransmisores) que se realice en dicha columna en ese instante. En este trabajo sólo consideraremos la dependencia de g con respecto a h+ y h− , es decir g(x0 , t) = G(h+ (x0 , t), h− (x0 , t)) , (2.13) donde la función G es suave y tiene un comportamiento sigmoidal cuya forma exacta es muy dı́ficil de predecir aunque esto no es importante para el análisis cualitativo que llevaremos a cabo posteriormente. 48 Es decir, la función G(h+ , h− ) es creciente con respecto a h+ para cada h− fijo y decreciente con respecto a h− para cada h+ fijo. Además existen curvas de nivel γ(h+ , h− ) = α, γ(h+ , h− ) = β , (2.14) tales que 0, si γ(h+ , h− ) < α , G(h+ , h− ) = 0 < G < 1 , si α < γ(h+ , h− ) < β , 1, (2.15) si γ(h+ , h− ) > β . Para cada h− fijo (respectivamente h+ fijo) las funciones G(·, h− ) (resp. G(h+ , ·)) deben tener un comportamiento sigmoidal usual. Más adelante propondremos una expresión explı́cita para las curvas de nivel (2.14). Las relaciones sigmoidales son muy frecuentes en los modelos del sistema nervioso. Por ejemplo, también existe una relación de este tipo entre las concentraciones de neurotransmisores y las frecuencias de disparo de las neuronas o también la frecuencia de actividad sináptica. Todas las hipótesis anteriores nos conducen a una simplificación del modelo determinado por las ecuaciones (2.1) y (2.2) h+ (x, t) = ho+ (x, t) + 12 PN n=1 S+n (x)λn+ R∞ −∞ n 0 e−λ+ |x −x| G(h+ (x0 , t − |x0 −x| ), h− (x0 , t n v± − |x0 −x| ))dx0 vn ± , (2.16) h− (x, t) = ho− (x, t) + 12 PN n=1 S−n (x)λn− R x+² −λn |x0 −x| 0| |x0 −x| 0 − G(h+ (x0 , t − |x−x ), h (x , t − ))dx0 , n − x−² e v vn − 49 − (2.17) donde le parámetro ² > 0 corresponde al carácter local de la actividad inhibitoria. Sustituyendo (2.13) en (2.16) y (2.17) obtenemos h+ (x, t) = ho+ (x, t) + 1 2 R 0 −λn n ∞ n + |x −x| g(x0 , t n=1 S+ (x)λ+ −∞ e PN − |x0 −x| )dx0 n v+ (2.18) , h− (x, t) = ho− (x, t) + 1 2 PN n n n=1 S− (x)λ− R x+² −λn |x0 −x| 0| − g(x0 , t − |x−x )dx0 . x−² e vn (2.19) − En el sistema (2.18), (2.19), existen un conjunto de simplificaciones no mencionadas explı́citamente con anterioridad. Consideramos que es importante explicar estas simplificaciones, ya que además de provocarnos algunas confusiones, el considerarlas nos permitirá la construcción de un modelo más detallado, el cual también consistirá de un sistema de ecuaciones integrales. Este sistema se podrá transformar en un sistema de ecuaciones diferenciales parciales de tipo hiperbólico en donde podremos analizar con mayor detalle las distintas “fuerzas” que actúan en el medio cortical. Es pertinente mencionar que al intentar transformar el sistema (2.18), (2.19), en un sistema de ecuaciones diferenciales hiperbólicas nos surgieron algunas complicaciones que no permitieron dicha transformación. Algunas de las simplificaciones introducidas en el sistema (2.18), (2.19) y no mencionadas por Nuñez son: No distingue por capas la densidad de actividad sináptica ni la generación de los potenciales de acción; este hecho nos obliga a considerar que el efecto producido en la actividad sináptica en una columna x en un instante t, producido por los potenciales de acción que se generan en tiempos anteriores en las demás columnas, se distribuye de manera uniforme sobre cada capa de la columna x (en cada capa el efecto total se dividirá por N , donde N es el número de capas). A nivel de columna tampoco distingue la contribución de la actividad sináptica de cada capa en la columna x a la generación de 50 los potenciales de acción en esa columna. Otro problema de estos modelos es que tampoco distinguen la actividad sináptica producida por neuronas de diferente clase. En la sección siguiente presentaremos otros modelos que subsanan algunas de estas simplificaciones. 2.4 ALGUNOS MODELOS ALTERNATIVOS AL MODELO DE NUÑEZ En esta sección analizaremos algunos modelos alternativos al modelo de Nuñez. Estos modelos subsanan algunas de las simplificaciones mencionadas en la sección anterior. También analizaremos brevemente la relación de estos modelos con el modelo de Nuñez y las relaciones que tienen entre sı́. 1. El modelo más general de capas serı́a considerar todas las interacciones que se pueden establecer entre todas las capas de cada par de columnas, ası́ obtendrı́amos el sistema de 2N 2 ecuaciones integrales siguiente para un modelo de N capas. 0j hij ± (x, t) = h± (x, t) + R∞R∞ 0 ij 0 ij 0 −∞ R± (x , x, v)g (x , t − |x−x0 | )dx0 dv vij (2.20) , donde: hij ± (x, t) − La densidad de actividad sináptica en la j-ésima capa de la columna x en el tiempo t producida por potenciales de acción que se generan en las otras columnas en tiempos anteriores y que viajan por el i-ésimo sistema de fibras, junto con la provocada por los potenciales de acción que se disparan en tiempos anteriores en estructuras interiores del cerebro. h0j ± (x, t) − La densidad de actividad sináptica en la j-ésima capa de la columna x producida por potenciales de acción que se generan 51 en estructuras internas del cerebro y que tienen conexión sináptica con la capa j-ésima de la columna x. ij R± (x0 , x, v) − El número de conexiones sinápticas/cm2 en la j-ésima capa de la columna x por unidad de longitud en la capa i-ésima de la columna x0 y por unidad de velocidad. g ij (x0 , t) − La fracción del total de neuronas de la capa i-ésima de la columna x0 que generan potenciales de acción en el tiempo t y que tienen contacto sináptico con neuronas de la capa j-ésima de las otras columnas. Con respecto al modelo de Nuñez se tienen las siguientes relaciones R± (x, t) = N X N X ij (x, t) , R± (2.21) i=1 j=1 gij (x, t) = αij (x)g(x, t) , h± (x, t) = N X N X ij h± (x, t) , (2.22) (2.23) i=1 j=1 donde αij (x) es un coeficiente entre 0 y 1 que indica la parte de g(x, t) que se disparan en la capa i-ésima de la columna x y que llegan a la capa j-ésima de las otras columnas. 2. Otra alternativa serı́a considerar hj± (x, t) = h0j ± (x, t) + 1 N R∞R∞ 0 −∞ j R± (x0 , x, v) donde: 52 PN i=1 αij g i (x0 , t − |x0 −x| )dx0 dv i v± , (2.24) hj± (x, t) − La densidad total de actividad sináptica en la j-ésima capa de la columna x en el tiempo t. g j (x0 , t) − La fracción del total de neuronas de la capa j-ésima de la columna x0 que generan potenciales de acción en el tiempo t. h0j ± (x, t) − La densidad de actividad sináptica en la capa j-ésima de la columna x producida por potenciales de acción que se generan en tiempos anteriores en estructuras internas del cerebro. j R± (x0 , x, v) − El número de conexiones sinápticas/cm2 en la columna x que llegan a la capa j-ésima de la columna x, por unidad de longitud en la columna x0 y por unidad de velocidad. αij − Los pesos que corresponden a la contribución de la capa iésima de la columna x0 a la actividad sináptica en la capa j-ésima de la columna x. Obviamente 0 ≤ αij ≤ 1 y podrı́a considerarse P αij = αij (x, x0 , t). También se tiene que N j=1 αij ≤ 1. Con respecto al modelo 1 se está eliminando la contribución particular de cada capa de la columna x0 a la actividad sináptica en la capa j-ésima de la columna x, además de que se tiene un problema similar que en el sistema (2.18) (2.19) ya que no se distingue tampoco el efecto de g i (x0 , t) en cada capa de la columna x, asumiendo que se distribuye uniformemente sobre cada capa de x (la contribución a la actividad 0 0 sináptica en la capa j-ésima de la columna x serı́a g (xN ,t) ). La ventaja que se tiene en este modelo es que g j (x0 , t) depende únicamente de hj+ (x0 , t) y hj− (x0 , t); es decir de la actividad sináptica en esa capa y no de la actividad sináptica en todas las capas de esa columna. Se puede considerar que se cumple la relación h± (x, t) = PN i=1 βi (x)hi± (x, t) , donde βi (x) son ciertos pesos positivos tales que PN i=1 βi (x) = 1. 3. También se puede considerar el siguiente sistema 53 (2.25) h̄j± (x, t) = h0± (x, t) + R∞R∞ 0 j 0 j 0 −∞ R± (x , x, v)g (x , t − |x−x0 | )dx0 dv v (2.26) , donde h̄j± (x, t) − La densidad de actividad sináptica en la columna x en el tiempo t producida por potenciales de acción que se generan en la capa j-ésima de las otras columnas en tiempos anteriores más la actividad sináptica en la columna x producida por potenciales de acción que se generan en tiempos anteriores en otras estructuras interiores del cerebro. En este caso no se distingue, como en el caso 2, la actividad sináptica en la columna por capas, sino por los potenciales de acción que provienen de cada capa en otras columnas. ḡ j (x0 , t) − La fracción del total de neuronas de la columna x0 que generan potenciales de acción en el tiempo t y que viajan por las fibras del j-ésimo sistema. h0± (x, t) − La densidad de actividad sináptica en la columna x en el tiempo t producida por los potenciales de acción que se generan en tiempos anteriores en otras estructuras interiores del cerebro. j (x0 , x, v) − El número de conexiones sinápticas por cm2 en la R± columna x por unidad de longitud en la capa j-ésima de la columna x0 y por unidad de velocidad. El problema que se presenta en este modelo es que ḡ j (x, t) depende de toda la actividad sináptica que ocurre en la columna x, es decir de h̄1± (x, t), . . . , h̄N ± (x, t)(x, t). Estos tres modelos y el modelo de Nuñez son las posibilidades más importantes que se pueden encontrar en un modelo de N capas. Estos 4 modelos están relacionados. El modelo 1 es el modelo más detallado de los cuatro, pero es el que incluye más ecuaciones y parámetros que nos dificultarı́an el 54 estudio del mismo. Estos modelos están relacionados entre sı́ de la siguiente manera: En el modelo 2 se está considerando la densidad de actividad sináptica por capas en cada columna pero sin distinguir la contribución a esta actividad de las distintas capas de las otras columnas, además tampoco se distingue el efecto de una capa de una columna (g j (x, t)) sobre cada capa de las otras columnas, se considera que el efecto (g j (x, t)) se distribuye de manera uniforme sobre las capas de cada columna afectada. La relación entre el modelo 2 y el 1 se da a través de considerar que à g ij |x − x0 | x0 , t − vij ! à = αij g i |x − x0 | x0 , t − vi ! , (2.27) i.e. el efecto de la i-ésima capa de la columna x sobre la j-ésima capa de las columnas afectadas es independiente de la capa que afecta y se distribuye de manera “uniforme” sobre cada capa. También se cumple que N X 1 i 0 ij R± (x , x, v) = (x0 , x, v) R± N j=1 (2.28) y por último hi± (x, t) = N X ij h± (x, t) . (2.29) hi± (x, t) , (2.30) j=1 En el modelo 3 se tiene obviamente que h± (x, t) = N X i=1 donde h+ (x, t) es la densidad total de actividad sináptica que aparece en el modelo de Nuñez. Nótese, además que g j (x0 , t) = ḡ j (x0 , t), pero g j sólo depende de hj+ y h− con respecto a las variables h̄i+ , h− se tiene que ḡ j ; depende de h̄1± , . . . , h̄N ± . Con más exactitud j j j ḡ = Ḡ (h+ , h− ) = Ḡ ÃN X i=1 55 h̄i+ , h− N X i=1 ! h̄i− (2.31) y como el modelo de Nuñez se relaciona con el modelo 2 a través de h± (x, t) = N X j h± (x, t) , (2.32) j=1 g j (x, t) = g(x, t) . N (2.33) Entonces también el modelo (2.18) (2.19) se relaciona con el modelo 1. El modelo que eligiremos para estudiar será el modelo 3 ya que es un poco más detallado que el de Nuñez y resulta un modelo con menos ecuaciones y parámetros que los otros dos modelos restantes. En la siguiente sección desarrollaremos el modelo 3. 2.5 DESARROLLO Y ESTUDIO DE UN MODELO DE LA ACTIVIDAD SINÁPTICA DE LA CORTEZA CEREBRAL En esta sección desarrollaremos el modelo 3, que como mencionamos en la sección anterior es un poco más preciso que el del sistema (2.18), (2.19), además este sistema se puede transformar en un sistema de ecuaciones diferenciales parciales. El modelo tiene también una conexión muy clara en el sistema (2.18), (2.19). En este modelo distinguiremos la contribución de cada capa de cada columna a la actividad sináptica de una columna de corteza dada en un instante de tiempo y lo que estudiaremos es la evolución espaciotemporal de esa actividad sináptica tomando en cuenta la distribución de conexiones sinápticas, las velocidades de propagación de los potenciales de acción de las neuronas de la capa correspondiente. Para ser más precisos introduciremos los elementos de que consiste el modelo. Sean: h̄j± (x, t) − La densidad de actividad sináptica (potenciales postsinápticos) en la columna x en el tiempo t, número de sinapsis activas/cm2 , producida por potenciales de acción que se generan en las otras columnas y que viajan por las fibras del sistema j-ésimo, más la actividad sináptica 56 en la columna x producida por potenciales de acción que se generan en tiempos anteriores en otras estructuras interiores del cerebro. ḡ j (x, t) − La fracción del total de neuronas de la columna x0 que generan potenciales de acción en el tiempo t y que viajan por las fibras del j-ésimo sistema. h̄0± (x, t) − La densidad de actividad sináptica en la columna x en el tiempo t producida por los potenciales de acción que se generan en estructuras interiores del cerebro en tiempos anteriores y que tienen conexión sináptica en la columna x. j R± (x0 , x, v) − El número de conexiones sinápticas/cm2 , del j-ésimo sistema en la columna x por unidad de longitud en x0 y por unidad de velocidad. La relación entre h̄j± (x, t), ḡ j (x, t) y h± (x, t), g(x, t) es la siguiente h± (x, t) = N X j h̄± (x, t) . (2.34) j=1 La misma idea que se usó para obtener la ecuación (2.18) se puede aplicar para obtener un sistema de ecuaciones integrales para h̄j± (x, t). Ası́ que para j = 1, . . . , N h̄j+ (x, t) = h̄0+ (x, t) + R ∞ −λj |x−x0 | j 0 1 j j e + ḡ (x , t λ S (x) −∞ 2 + + − |x0 −x| )dx0 j v+ (2.35) . Para h̄j− (x, t) se tiene h̄j− (x, t) = h̄0− (x, t) + Z x+² j 1 j |x − x0 | 0 j S− (x)λ− )dx0 . (2.36) e−λ− |x−x | ḡ j (x0 , t − j 2 x−² v− 57 Ahora, sabemos que los potenciales de acción que se generan en cada capa de cada columna (ḡ j (x, t)) dependen de la actividad sináptica que existe en esa columna (no depende únicamente de la actividad sináptica en esa capa por la forma en que se definió h̄j± (x, t)) y de la actividad neuroquı́mica en la misma columna. En este trabajo sólo consideraremos la dependencia de ḡ j (x, t) con respecto a (h̄j± (x, t), j = 1, . . . , N ) es decir consideraremos N X ḡ j (x, t) = Ḡj ( h̄i+ (x, t), N X hi− (x, t)) . (2.37) i=1 i=1 La forma exacta de esta dependencia es dı́ficil de predecir, pero cualitativamente consideramos que debe ser de tipo sigmoide en cada variable. Ası́ para cada k = 1, . . . , N y para cada h̄i+ (x, t), i 6= k y h̄j− (x, t) fijo debemos k N 1 N tener que Ḡj (h̄1+ , ..., h̄k−1 + , h̄+ , . . . , h+ , h̄− , . . . , h̄− ) es una función creciente de tipo sigmoide. Para cada 1 ≤ k ≤ N y para cada h̄1+ , . . . , h̄N + fijo debemos tener que j 1 N Ḡ (h̄+ , . . . , h̄+ , ·) es una función decreciente de tipo sigmoide. Además existen curvas de nivel j N 1 γj (h̄1+ , ..., h̄j+ , . . . , hN + , h− ) = αj y γj (h̄+ , ..., h̄+ , . . . , h+ , h− ) = βj , (2.38) tales que Ḡj (h̄1+ , h̄j+ . . . h̄N + , h− ) = 0, si γj (h̄1+ , h̄j+ . . . h̄N + , h− ) < αj , 0 < Ḡj < 1 , si αj < γj (h̄1+ , h̄j+ . . . h̄N + , h − ) < βj , 1, si γj (h̄1+ , h̄j+ . . . h̄N + , h− ) > βj . (2.39) Más adelante propondremos una expresión explı́cita para las curvas de nivel (2.38). Con estas condiciones el sistema (2.35), (2.36) se transforma en 58 h̄j+ (x, t) = h̄0+ (x, t) + 12 λj+ S+j (x) R∞ −∞ j 0 PN e−λ+ |x −x| Ḡj ( i=1 h̄i+ (x0 , t − |x0 −x| PN ), i=1 j v+ hi− (x0 , t − |x0 −x| )dx0 i v+ , (2.40) h̄j− (x, t) = h̄0− (x, t) + 12 λj− S−j (x) R x+² −λj |x0 −x| j PN 0 P |x0 −x| 0 i 0 − Ḡ ( i=1 h̄i+ (x0 , t − |xv−x| ), N j i=1 h̄− (x , t − v i )dx ) . x−² e − − (2.41) Como ya hemos mencionado anteriormente consideramos más adecuado para el análisis del modelo, transformar el sistema (2.35), (2.36) en un sistema de ecuaciones diferenciales parciales para h̄j+ (x, t), h̄j− (x, t). Esto último lo haremos en la siguiente sección. 59 2.6 TRANSFORMACIÓN DEL SISTEMA DE ECUACIONES INTEGRALES EN UN SISTEMA DE ECUACIONES DIFERENCIALES PARCIALES Usando la regla de Leibnitz para derivar bajo el signo de la integral, ∂ 2 h̄j ∂ h̄j ∂ h̄j ∂ 2 h̄j podemos obtener ∂x± , ∂x2± , ∂t± , ∂t2± , no escribiremos estas derivadas ya que además de constar de muchos términos, no son necesarias para los siguientes desarrollos. Escribiremos solamente el sistema de ecuaciones diferenciales parciales resultante, tanto para h̄j+ como para h̄j− . Para h̄j+ se obtiene ∂ 2 h̄j+ ∂t2 j + 2λj+ v+ · j 2 ) (v+ ∂ 2 h̄j+ ∂x2 ∂ h̄j+ ∂t j 2 j + (λj+ v+ ) h̄+ = j 0 ) (x) ∂ h̄j+ 2(S+ j ∂x S (x) − µ j 00 j j 0 ) (x) (x)(S+ ) (x))2 −S+ 2((S+ + j 2 (S+ ) (x) + h ¶ j j j j ḡ (x, t) + S+ (x) λj+ v+ +λj+ v+ i ∂ḡ j (x, t) ∂t ¸ h̄j+ (2.42) + F+j (x, t) . Para h̄j− se obtiene ∂ 2 h̄j− ∂t2 j + 2λj− v− · j 2 ) (v− ∂ 2 h̄j− ∂x2 − ∂ h̄j− ∂t j 2 j ) h̄− = + (λj− v− j 0 ) (x) ∂ h̄j− 2(S− j ∂x S (x) µ j 00 j j 0 ) (x) (x)(S− ) (x))2 −S− 2((S− + j 2 (S− ) (x) − h j j j j ḡ (x, t) + S− (x) λj+ v− +λj− v− i ∂ḡ j (x, t) ∂t ¸ ¶ h̄j− (2.43) + F−j (x, t) + F j (x, t, ²) , donde · F+j (x, t) = ∂ 2 h̄0+ ∂t2 − j 2 (v+ ) + · 0 j ∂ h̄+ 2λj+ v+ ∂t ∂ 2 h̄0+ ∂x2 − ¸ + j 2 0 (λj+ v+ ) h̄+ j 0 2(S+ ) (x) ∂ h̄0+ j ∂x S (x) + 60 µ + j 0 j j 00 2((S+ ) (x))2 −S+ (x)(S+ ) (x) j 2 (S+ ) (x) ¸ ¶ h̄0+ , (2.44) · F−j (x, t) = ∂ 2 h̄0− ∂t2 − j 2 (v− ) j + 2λj− v− · ∂ 2 h̄0− ∂x2 − ∂ h̄0− ∂t ¸ j 2 0 + (λj− v− ) h̄− j 0 2(S− ) (x) ∂ h̄0− j ∂x S (x) µ + j 0 j j 00 2((S− ) (x))2 −S− (x)(S− ) (x) j 2 (S− ) (x) − · j j j j j −λ− ² j F j (x, t, ²) = − 21 λj− v− S− (x) v− λ− e ḡ (x − ², t − j j + e−λ− ² ∂ḡ (x − ², t − ∂t ² j ) v− j j −λ− ² j ḡ (x + ², t − e + λj− v− + j j e−λ− ² ∂ḡ (x ∂t + ², t − ² j ) v− j ¶ ¸ h̄0− , (2.45) ² j ) v− j j −λ− ² ∂ḡ − v− e (x − ², t − ∂x ² j ) v− ² j ) v− + j v− j j e−λ− ² ∂ḡ (x ∂x ¸ + ², t − ² j ) v− . (2.46) Con la finalidad de presentar concisamente y más adecuadamente para nuestros cálculos el sistema (2.42), (2.43), definiremos 4N operadores diferenciales parciales, actuando sobre las funciones de dos variables con derivadas parciales hasta de segundo orden continuas. Denotaremos estos operadores con los sı́mbolos Li,j ± , 1 ≤ i ≤ 2, 1 ≤ j ≤ N y estarán definidos como sigue L1,j ± [u] = · L2,j ± [u] = j 2 ) (v± ∂2u ∂x2 − ∂2u ∂t2 j ∂u + 2λj± v± + (λ± v± )2 u , ∂t j 0 2(S± ) (x) ∂u j S (x) ∂x ± µ + j 0 j j 00 2((S± ) (x))2 −S± (x)(S± ) (x) j 2 (S± ) (x) (2.47) ¶ ¸ u , (2.48) donde u = u(x, t) es una función con derivadas parciales hasta de segundo orden continuas. 61 Con esta nueva notación, el sistema (2.42), (2.43) se convierte en el sistema j 2,j j L1,j + [h̄+ ] = L+ [h̄+ ] h j j j j + λj+ v+ S+ (x) λj+ v+ ḡ (x, t) + i ∂ḡ j (x, t) ∂t (2.49) + F+j (x, t) , j 2,j j L1,j − [h̄− ] = L− [h̄− ] h j j j j + λj− v− S− (x) λj− v− ḡ (x, t) + i ∂ḡ j (x, t) ∂t (2.50) + F−j (x, t) + F (x, t, ²) . Para reducir el sistema a un sistema equivalente más sencillo de estudiar haremos uso de los siguientes resultados los cuales son muy fáciles de probar j Lema 1 Sean Li,j ± los operadores diferenciales definidos en (2.48) y sean L̄± los operadores diferenciales parciales definidos por L̄j± [u] = ∂2u ∂t2 2 j ∂ u j ∂u j 2 ) u − v± + 2λj± v± + (λj± v± . ∂t ∂x2 (2.51) Entonces L̄j± [ūj± ] = 1 j S± (x) h i 2,j j j L1,j ± [u± ] − L± [u± ] , (2.52) donde ūj± (x, t) = uj± (x, t) . S±j (x) Lema 2 Sea L̄j± como en el Lema 1, entonces j j j j eλ+ v+ t L̄j+ [uj+ ] = ∂+2,j [ūj+ ] , eλ− v− t L̄j− [uj− ] = ∂−2,j [ūj− ] , 62 (2.53) (2.54) donde j j ūj± (x, t) = eλ± v± t uj± (x, t) y ∂+2,j [u] = 2 ∂ 2u j 2∂ u − (v ) , + ∂t2 ∂x2 (2.55) ∂−2,j [u] = 2 ∂ 2u j 2∂ u − (v ) . − ∂t2 ∂x2 (2.56) Aplicando el Lema 1 al sistema (2.49), (2.50) ese sistema es equivalente al sistema " L̄j+ [H+j ] " L̄j− [H−j ] # ∂ḡ j 1 j j j ḡ (x, t) + λj+ v+ = j F+j (x, t) + λj+ v+ (x, t) , ∂t S+ (x) (2.57) # ∂ḡ j 1 1 j j j ḡ (x, t) + λj− v− = j F−j (x, t)+λj− v− , (x, t) +F j (x, t, ²) j ∂t S− (x) S− (x) (2.58) donde H+j (x, t) h̄j± (x, t) = j S± (x) y aplicando el Lema 2 al sistema (2.57), (2.58), este sistema es equivalente a " ∂+2,j [H̄+j ] j λj+ v+ t =e " ∂−2,j [H̄−j ] j λj− v− t =e ## " F+j (x, t) ∂ḡ j j j j j j (x, t) + λ v λ v ḡ (x, t) + + + + + ∂t S+j (x) # " , (2.59) # F j (x, t, ²) ∂ḡ j F−j (x, t) j j j j j (x, t) + + λ , v λ v ḡ (x, t) + − − − − ∂t S−j (x) S−j (x) (2.60) 63 donde j j H̄±j (x, t) = eλ± v± t H±j (x, t) . El sistema (2.57), (2.58) es un sistema de 4N ecuaciones diferenciales parP i PN i ciales no lineales acopladas (recordemos que ḡ j (x, t) = Ḡj ( N i=1 h̄+ , i=1 h− ), j donde lo único que le hemos pedido hasta ahora a Ḡ es que sea una función sigmoide de cada una de las variables h̄i± ), además, la ecuación (2.59) depende de un pequeño parámetro ² > 0. Este sistema es sumamente complejo de estudiar, ası́ que para hacer más tratable el sistema, estudiaremos primero el caso N = 1, esto significa que se tiene únicamente una sola capa en cada columna. En este caso el sistema a estudiar es " # 1 ∂ḡ L̄+ [H+ ] = F+ (x, t) + λ+ v+ λ+ v+ ḡ(x, t) + (x, t) , S+ (x) ∂t " (2.61) # 1 ∂ḡ 1 L̄− [H− ] = F− (x, t) + λ− v− λ− v− ḡ(x, t) + (x, t) + F (x, t, ²) . S− (x) ∂t S− (x) (2.62) Es decir, tenemos dos ecuaciones diferenciales parciales con la ecuación (2.62) dependiendo de un parámetro pequeño ² > 0, la función ḡ depende únicamente de h̄± , de manera sigmoide en cada una de ellas ḡ(x, t) = Ḡ(h+ , h− ) . (2.63) En la siguiente sección estudiaremos el sistema (2.61), (2.62) usando técnicas de parámetro pequeño, es decir, estudiaremos primeramente el sistema degenerado, − el sistema (2.61), (2.62) con ² = 0 − , para después, con base en este estudio, obtener información sobre el sistema no degenerado. Además introduciremos una expresión para Ḡ, que dependerá de una sola variable, la cual es una combinación lineal de h̄+ , y h̄− , a esta nueva variable la llamaremos variable de activación, ya que el hecho de que se generen o no potenciales de acción en una columna dependen de esta nueva variable. 64 2.7 LA ECUACIÓN DE ACTIVACIÓN PARA LA CORTEZA CEREBRAL Sabemos que ḡ(x, t) depende de una manera muy compleja de la actividad sináptica excitatoria h̄+ , y de la actividad sináptica inhibitoria h̄− , i.e. ḡ(x, t) es igual a Ḡ(h̄+ , h̄− ), cualitativamente consideramos que Ḡ(., h̄− ) debe ser una función sigmoide creciente de h̄+ , para cada h̄− fijo y que debe ser una función sigmoide decreciente de h̄− para cada h̄+ fijo. Este planteamiento es sumamente general y difı́cil de estudiar, ası́ que estudiaremos un caso particular de la dependencia de ḡ con respecto a h̄+ y h̄− . El caso que estudiaremos está basado en lo siguiente: 1. Si V± representa el valor del potencial postsináptico en una sinapsis, entonces V± h̄± (x, t) representará la densidad de potencial postsináptico en la columna x en el tiempo t. 2. Habrá activación en la columna x (generación de potenciales de acción) cuando V+ H+ (x, t) − V− H− (x, t) ≥ V0 , donde V0 es un cierto umbral promediado de disparo de la columna x, en caso contrario no habrá activación. 3. Si V+ H+ (x, t) − V− H− (x, t) es muy grande, habrá saturación de la columna x en el tiempo t y entonces, no aumentará significativamente la actividad de la columna en ese tiempo. Basados en estos tres puntos consideramos que: ḡ(x, t) = Ḡ(V+ H+ (x, t) − V− H− (x, t)) , (2.64) donde Ḡ es una función sigmoide de una sola variable. Ḡ es una función sigmoide de la densidad de potencial postsináptico de la columna. En realidad, como veremos después, se pueden elegir varias expresiones cuantitativas para Ḡ. Llamaremos a la variable u(x, t) = V+ H+ (x, t) − V− H− (x, t) variable de activación de la columna x. 65 La dinámica espacio-temporal de u(x, t) nos permitirá estudiar las zonas de la corteza que están activas en un tiempo determinado. Para cada t, las zonas activas de la corteza estarán caracterizadas por el conjunto E(t) = {x en la corteza|u(x, t) ≥ V0 } . Para obtener la ecuación diferencial parcial que determina la dinámica de la variable de activación u(x, t) multiplicamos la ecuación L̄+ [H+ ] = 1 F (x, t) + λ+ v+ [λ+ v+ ḡ(x, t) + ∂ḡ (x, t)] por V+ y le restamos V− L̄+ [H− ] S+ (x) + ∂t en ambos lados de la ecuación, ası́ se obtiene " L̄+ [u] = V+ λ+ v+ # ∂ḡ F+ (x, t) λ+ v+ ḡ(x, t) + (x, t) +V+ −V− L̄+ [H− ] . (2.65) ∂t S+ (x) Además tenemos la ecuación para las inhibiciones " L̄− [H− ] = λ− v− # ∂ḡ F− (x, t) F (x, t, ²) λ− v− ḡ(x, t) + (x, t) + + . ∂t S− (x) S− (x) (2.66) Como mencionamos en la sección anterior, primeramente estudiaremos el caso degenerado (² = 0) del sistema (2.65), (2.66) " L̄+ [u] = V+ λ+ v+ # ∂ḡ F+ (x, t) λ+ v+ ḡ(x, t) + (x, t) +V+ −V− L̄+ [H− ] . (2.67) ∂t S+ (x) Además tenemos la ecuación para las inhibiciones L̄− [H− ] = F− (x, t) . S− (x) (2.68) Usando el lema 2, se puede reducir el sistema (2.67), (2.68) al estudio del sistema equivalente " L̄+ [u] = V+ λ+ v+ # ∂ḡ ∂u F+ (x, t) λ+ v+ ḡ(u) + (u) + V+ − V− L̄+ [H− ] , (2.69) ∂u ∂t S+ (x) 66 ∂−2 (H̄− ) = e−λ− v− t F− (x, t) , S− (x) (2.70) donde H̄(x, t) = eλ− v− t H− (x, t) . Utilizando la definición de L̄, ∂−2 y calculando L̄+ [e−λ− v− t H̄− (x, t)] y reordenando los términos, obtenemos el sistema ∂2u ∂t2 h 2 2 ∂ u + 2λ+ v+ ∂u + (λ+ v+ )2 u − v+ = V+ λ+ v+ λ+ v+ ḡ(u) + ḡ 0 (u) ∂u ∂t ∂x2 ∂t · −V− e−λ− v− t (1 − + S+V+(x) F+ (x, t) + 2 v+ ∂ 2 H̄− 2 ) ∂t2 v− i ¸ − + 2(λ+ v+ − λ− v− ) ∂ H̄ + (λ+ v+ − λ− v− )2 H̄− ∂t 1 F− (x,t) −λ− v− t 2 S (x) e v− − , (2.71) 2 ∂ 2 H̄− e−λ− v− t 2 ∂ H̄− = v + F− (x, t) . − ∂t2 ∂x2 S− (x) (2.72) Nótese que la ecuación (2.72) es independiente de ḡ, ası́ que este sistema se puede interpretar como un proceso global de propagación de ondas de la variable de activación, modulado por un proceso de propagación de ondas de las inhibiciones. 67 2.8 CONSTRUCCIÓN DE UN MODELO COMPARTIMENTADO DE ACTIVACIÓN DE LA CORTEZA CEREBRAL. En el modelo que hemos analizado en las secciones anteriores –con las diversas formas propuestas para la distribución de conexiones– se eliminan los efectos producidos en cada columna por columnas lejanas a ella. La eliminación de los “efectos lejanos”, se debe a la elección de una distribución de conexiones que decrece exponencialmente con las distancias entre columnas con la misma escala de decrecimiento, en todas las direcciones sobre la corteza. Una manera de tomar en cuenta estos “efectos lejanos”, es considerar a la corteza cerebral dividida en n compartimentos disjuntos interconectados, considerando la distribución de conexiones para cada par de compartimentos de decrecimiento exponencial, pero con una escala de decrecimiento que depende del par de compartimentos considerados. Ası́, “los efectos” producidos en una columna de cierto compartimento estarán clasificados dependiendo de los compartimentos con que interactúa. En nuestro modelo consideramos que las velocidades de propagación de los potenciales de acción no dependen de los compartimentos que se están considerando. La división de la corteza en n compartimentos, además de ser una mejor aproximación de la corteza real que la propuesta en las secciones anteriores, nos permite correlacionar nuestros resultados teóricos con las mediciones reales de actividad cortical. Además nos permitirá estudiar el diagrama de conexiones funcional que se establece en un estado fisiológico dado. Se podrı́a estudiar, también la interrelación que existe entre las distintas áreas de la corteza, siguiendo la división propuesta por el anatomista K. Brodmann (Fig. # 9). A continuación describiremos más detalladamente este modelo. Como ya hemos mencionado, en el presente modelo consideramos a la corteza cerebral dividida en n compartimentos ajenos Ωi , i = 1, . . . , n. Por simplicidad y siguiendo las ideas de las secciones anteriores, consideraremos una banda de corteza en la cual, las ondas que se propagan por ella, tienen longitud de onda muy pequeña con respecto a la longitud de la misma. Con estas simplificaciones puede pensarse en la corteza como una recta dividida en n intervalos disjuntos, identificando los dos intervalos infinitos como uno solo (considerando que los “efectos ” de los dos intervalos infinitos provocan 68 el mismo efecto sobre los otros intervalos). Lo que deseamos es relacionar la densidad de actividad sináptica – excitatoria e inhibitoria – en una columna de corteza con los potenciales de acción que se generan en las otras columnas en tiempos anteriores, pero como tenemos dividida a la corteza en n compartimentos, aumentará el número de ecuaciones a considerar. A continuación procederemos a definir las variables y parámetros que intervienen en el modelo, deduciremos las ecuaciones en forma integral y al igual que en las secciones anteriores transformaremos éstas en un sistema de ecuaciones diferenciales parciales. Como en las secciones anteriores, el subı́ndice + se referirá a las sinapsis excitatorias y el − a las sinapsis inhibitorias. Sean : a) hij ± (x, t) − La densidad de sinapsis activas o de actividad sináptica por cm2 en la columna x ∈ Ωj , en el tiempo t, producidos por los potenciales de acción que se generan en el compartimento Ωi en tiempos anteriores hij ± (x, t) representa el efecto de Ωi en la columna x ∈ Ωj en el instante t (1/cm2 ). b) f±j (x, t) − La densidad de sinapsis activas por cm2 en la columna x ∈ Ωj en el instante t, producidas por los potenciales de acción que se generan en tiempos “anteriores” en las estructuras internas del cerebro, principalmente el tálamo, y que tienen conexión sináptica con la columna x ∈ Ωj . Supondremos que f−j (x, t) ≡ 0 para cada j. c) hj± (x, t) = n X ij h± (x, t) + f±j (x, t) . (2.73) i=1 Representará la densidad de actividad sináptica total en la columna x ∈ Ωj en el instante t, producida por los potenciales de acción generados en todas las regiones de la corteza y las estructuras internas del cerebro, principalmente el tálamo. ij d) R± (x0 , x, v) − El número de conexiones sinápticas por cm2 en la columna x ∈ Ωj por unidad de longitud en x0 ∈ Ωi y por unidad de velocidad, es ij decir, R± (x0 , x, v)dx0 dv representa el número de conexiones sinápticas 69 por cm2 en la columna x ∈ Ωj que provienen de las neuronas que están ubicadas desde la columna x0 hasta la columna x0 + dx0 y por cuyos axones los potenciales de acción “viajan” con velocidad entre v y v + dv. e) g(x, t) − La fracción del total de neuronas en la columna x que generan potenciales de acción en el instante t. f ) g j (x, t) − La fracción del total de neuronas en la columna x ∈ Ωj que generan potenciales de acción en el tiempo t. Obviamente g(x, t) = g j (x, t) para x ∈ Ωj . (2.74) Lo que queremos conocer es la evolución espacio-temporal de la densidad de actividad sináptica total en cada columna de cada compartimento de la corteza (hij ± (x, t), x ∈ Ωj , j = 1, . . . , n). Para lograr esto, primero obtendremos la evolución espacio-temporal de la densidad de actividad sináptica en cada columna de un compartimento dado de la corteza producida por la interacción con otro compartimento de la misma (hij ± (x, t), x ∈ Ωj , i, j = 1, . . . , n) y le añadiremos la producida por las estructuras internas del cerebro (f+j (x, t), j = 1, . . . , n). Consideraremos que por cada par de compartimentos Ωi , Ωj se cumplen las siguientes hipótesis : 1. Existe una única velocidad de propagación, v± , de los potenciales de acción que viajan de Ωi a Ωj y que no depende de Ωi ni de Ωj . ij (x0 , x, v)) depende únicamente de la dis2. La densidad de conexiones (R± tancia entre las columnas y tienen su decrecimiento exponencial, con cada escala de decrecimiento (λij ± ) que sólo depende de las regiones Ωi , Ωj . R± (x0 , x, v) = n X ij R± (x0 , x, v), i=1 donde 70 x ∈ Ωj , (2.75) ij R± (x0 , x, v) = ij ij 0 −λ |x−x0 | Sj (x)δ(v − v± ) , α± (x )e ± 0, si x ∈ Ωj , x0 ∈ Ωi en otro caso (2.76) 0 R± (x , x, v) representará el número de conexiones sinápticas por cm2 en x, por unidad de longitud en x0 y por unidad de velocidad. Sj (x) es la ij densidad de conexiones sinápticas en x ∈ Ωj (1/cm2 ) y α± (x0 ) (1/cm) es un factor de normalización, sujeto a la condición n Z X i=1 R ij 0 ij α± (x0 )e−λ± |x−x | dx0 = 1, para cada x ∈ Ωj . (2.77) En lo que sigue, identificaremos Ωi (i = 1, . . . , n) con el conjunto de ij ij ij , (x0 ) = α± (x0 ) constante; α± los números reales y si suponemos α± entonces de (2.77) obtenemos : 2 ij n X α± i=1 λij ± = 1. (2.78) Debido al carácter local de las inhibiciones, podemos suponer que ij = 0 si i 6= j. α− Ası́, en lo que sigue consideraremos que : ij = α+ λij λjj + jj = − . , α− 2n 2 (2.79) 3. Los potenciales de acción que se generan en la columna x ∈ Ωj en el instante t, dependen de la actividad sináptica total en x ∈ Ωi en el instante t y de la densidad de la actividad neuroquı́mica (concentración de neurotransmisores) que se realice en dicha columna en ese instante. Nosotros sólo consideraremos la dependencia de g i con respecto a la actividad total en la columna x en el instante t. Además, de la suposición de que la actividad inhibitoria en la corteza sólo tiene un carácter local, se concluye que hki − (x, t) ≡ 0 si k 6= i. 71 Finalmente como las conexiones aferentes a la corteza son sólo excitatorias, tenemos que f−j (x, t) ≡ 0 y ası́ obtenemos g i (x, t) = g i ( n X i ii hki + (x, t) + f+ (x, t), h− (x, t)) . (2.80) k=1 Siguiendo el mismo razonamiento expuesto en las secciones anteriores, tenemos que : hij − (x, t) Z ∞ jj λij |x − x0 | 0 + e−λ+ |x−x | g(x0 , t − )dx0 , = Sj (x) 2n v+ −∞ hjj − (x, t) = Z x+² jj λjj |x − x0 | 0 − Sj (x) )dx0 , e−λ+ |x−x | g(x0 , t − 2 v− x−² (2.81) (2.82) donde el parámetro ² > 0 corresponde a la localidad de la actividad inhibitoria. De nuevo, debido al carácter local del proceso inhibitorio, consideraremos que hij − (x, t) ≡ 0 si i 6= j. Introduciendo las nuevas funciones incógnitas H+ij (x, t) nhij (x, t) hjj + (x, t) jj = , H− (x, t) = − Sj (x) Sj (x) (2.83) 2 y realizando el mismo proceso de aplicar el operador ∂ 2 a cada lado de ∂x (2.81), (2.82) y después pasar al lı́mite cuando ² → 0, se obtiene, debido a (2.74) 2 ij ∂H+ij ∂ 2 H+ij ij ij ij 2 2 2 ∂ H+ v ) v H − v + 2λ + (λ + + + + + + ∂t2 ∂t ∂x2 " = λij + v+ # ij λij + v+ g (x, t) ∂g ij (x, t) , + ∂t x ∈ Ωj , 2 jj ∂ 2 H−jj ∂H−jj jj jj 2 2 jj 2 ∂ H− + 2λ− v− + (λ− ) v− H− − v− = 0, ∂t2 ∂t ∂x2 72 x ∈ Ωj , (2.84) (2.85) donde g ij (x, t) es la fracción del total de neuronas que generan potenciales de acción en x ∈ Ωj debido a las sinapsis que provienen de neuronas en Ωi . En lo que sigue supondremos que g ij (x, t) = µij (x)g j (x, t) , (2.86) donde g j (x, t) está definida en (2.74) y 0 ≤ µij (x) ≤ 1 es tal que n X µi,j (x) = 1, para toda x ∈ Ωj . i=1 Las funciones µij (x); i, j = 1, . . . , n determinan el diagrama de conexión funcional en la corteza, correspondiente a un estado fisiológico, caracterizado por una función de activación de neuronas g j (x, t) para cada compartimento Ωj ; j = 1, . . . , n. El hecho de que µij (x) pueda ser diferente de µkj para i 6= k nos permite considerar una distribución no homógenea de activación en x ∈ Ωj correspondiente a los compartimentos Ωk y Ωi que no podı́amos considerar en el modelo estudiado en las secciones anteriores. Sea V± el valor absoluto del potencial postsináptico producido por una sinapsis (+ excitatoria, − inhibitoria). Introduciremos las nuevas variables h uij (x, t) = V+ (n − 1) H+ij (x, t) + f j (x,t) Sj (x) i − V− H−jj (x, t) (V+ + V− ) , (2.87) i, j = 1, . . . , n , que llamaremos variable de activación parcial en x ∈ Ωj , en el instante t, provocada por la acción de Ωi sobre Ωj . De (2.84), (2.85), (2.86), (2.87) se obtiene el siguiente sistema de ecuaciones para las variables de activación : 2 ∂ 2 uij ∂uij ij ij 2 2 ∂ uij v v ) u − v + 2λ + (λ = + + ij + + + ∂t2 ∂t ∂x2 " λij ∂g j + v+ V+ (n − 1) ij j µij (x) λ+ v+ g (x, t) + (x, t) (V+ + V− ) ∂t # + Fij (x, t) − Iij (x, t), x ∈ Ωj ; i, j = 1, . . . , n , 73 (2.88) donde ³ ´ j 2 f (x,t) ∂ V+ (n − 1) ∂ Sj (x) ij Fij (x, t) = v + 2λ + + (V+ + V− ) ∂t2 2 2 +(λij + ) v+ j f (x, t) 2 − v+ Sj (x) ∂2 ³ f j (x,t) Sj (x) ∂x2 ³ f j (x,t) Sj (x) ´ ∂t ´ , " (2.89) # 2 jj V− ∂ 2 H−ij ∂H−ij ij ij 2 jj 2 ∂ H− Iij (x, t) = + 2λ . v + (λ v ) H − v + + + + − + V+ + V− ∂t2 ∂t ∂x2 (2.90) Nótese que, en (2.90), H−jj (x, t) sólo depende de las condiciones iniciales de inhibición, debido a que satisface la ecuación (2.85). Teniendo en cuenta (2.80) podemos suponer que en (2.88) se tiene g j (x, t) = gj (uj ) , donde uj (x, t) = n X (2.91) uij (x, t) i=1 es la llamada variable de activación total en x ∈ Ωj . De à ! n X f j (x, t) ij 0≤ ≤ 1, para cada x ∈ Ωj H+ (x, t) + Sj (x) i=1 y 0 ≤ H−jj (x, t) ≤ 1, para cada x ∈ Ωj , se tiene que −1 ≤ uj (x, t) ≤ 1, para cada x ∈ Ωj . Entonces de (2.91) y el comportamiento cualitativo que, a partir del conocimiento fisiológico, debe tener la función de activación gj , podemos suponer que gj (uj ) es una función creciente continuamente diferenciable de la variable uj , definida en todo R y tal que 74 gj = 0, creciente , 1, si uj ≤ −1 , si − 1 ≤ uj ≤ 1 , si uj ≥ 1 . (2.92) Para tener más arbitrariedad en la selección de gj , podemos suponer que es una función sigmoide de la variable uj que está muy cercana al valor 0 en uj = −1 y muy cercana al valor 1 en uj = 1. Haremos ahora la suposición de que las conexiones excitatorias entre compartimentos diferentes son pocas en comparación con las que hay dentro de cada compartimento, es decir, λjj + ¿ 1, si i 6= j; i, j = 1, . . . , n . λij + (2.93) Entonces, si ponemos λjj λjj + v+ + = βj , = ², jj λ− v− λij + i 6= j (2.94) y pasamos a las nuevas coordenadas jj λjj + v+ t = τ, λ+ x = y (2.95) en (2.88) para todo i, j = 1, . . . , n, obtenemos un sistema con parámetro pequeño ² para las variables de activación parcial en coordenadas adimensionales ²2 2 ∂ 2 ũij ∂ ũij 2 ∂ ũij + 2² + ũ − ² = ij ∂τ 2 ∂τ ∂y 2 " # V+ (n − 1) ∂g̃ j µ̃ij (y) g̃ j (y, τ ) + ² (y, τ ) + (V+ + V− ) ∂τ (2.96) + h i 1 ˜ij (y, τ ) ; F̃ (y, τ ) − I ij 2 (λij + v+ ) 75 1 y ∈ Ωj , i, j = 1, . . . , n, λjj + i 6= j , donde ũij (y, τ ) = uij (x, t), µ̃ij (y) = µij (x), g̃ j (y, τ ) = g j (x, t), F̃ij (y, τ ) = Fij (x, τ ), I˜ij (y, τ ) = Iij (x, t). Además se tiene ∂ 2 ũjj ∂ ũjj ∂ 2 ũjj + 2 + ũ − = jj ∂τ 2 ∂τ ∂y 2 " # V+ (n − 1) ∂g̃ µ̃jj (y) g̃ j (y, τ ) + (y, τ ) + (V+ + V− ) ∂τ (2.97) i h 1 ˜jj (y, τ ) , 1 y ∈ Ωj . F̃ (y, τ ) − I jj (λ+ v+ )2 λjj + De (2.91) tenemos que g̃ j (y, τ ) = g̃j (ũj ) , donde ũj (y, τ ) = n X ũij (y, τ ) i=1 es la variable de activación total de la región Ωj en coordenadas adimensionales. 76 En lo que sigue consideraremos que las variables de activación se obtienen en forma de promedios espaciales en cada compartimento Ωj , es decir ũij (y, τ ) = ũij (τ ), ũij (y) = ũij , g̃ j (y, τ ) = g̃ j (τ ), F̃ij (y, τ ) = F̃ij (τ ) , I˜ij (y, τ ) = I˜ij (τ ) . De esta forma, el sistema (2.96), (2.97) se reduce al sistema ²2 " d2 ũij dũij + 2² + ũij = dτ 2 dτ # i h dg̃ j 1 V+ (n − 1) j ˜ g̃ (τ ) + ² F̃ µ̃ij (τ ) + ij ij (τ ) − Iij (τ ) , (V+ + V− ) dτ (λ+ v+ )2 i, j = 1, . . . , n, (2.98) i 6= j , " # ∂g̃ j d2 ũjj dũjj V+ (n − 1) j g̃ (τ ) + + 2 + ũ = µ̃ (τ ) jj ij dτ 2 dτ (V+ + V− ) ∂τ (2.99) + i h 1 ˜jj (τ ) . F̃ (τ ) − I jj 2 (λjj + v+ ) Por simplicidad supondremos que la entrada aferente Fij (τ ) a la región Ωj proveniente de estructuras internas del cerebro es pequeña, es decir : F̃ij (τ ) = (λjj + v+ )G̃ij (τ ), i 6= j , donde G̃ij (τ ) está acotada. 77 (2.100) Por otra parte, de (2.90) se tiene que " # 2 jj 1 V− dH̃−jj (τ ) 2 d H̃− (τ ) ˜ij (τ ) = I ² + 2² + H−jj (τ ) , (2.101) 2 2 (V + V ) dτ dτ (λij v ) + − + + donde H̃−jj (τ ) = H−jj (τ ) es, según (2.85), solución de la ecuación 2 jj 2 d H̃− βj 2 dH̃−jj + 2βj + H̃−jj = 0 , dτ dτ donde βj viene definido en (2.94). De (2.102) se tiene que (2.102) H̃−jj (τ ) = (aτ + b)e−τ /βj , donde a y b son parámetros que dependen de las condiciones iniciales de inhibición. Finalmente, la ecuación (2.98) se transforma en ²2 d2 ũij dũij + 2² + ũij = 2 dτ dτ # " V+ (n − 1) dg̃ j µ̃ij g̃ j (τ ) + ² (τ ) + ²2 G̃ij (τ ) (V+ + V− ) dτ − (2.103) V− H̃ jj (τ ) para cada i, j = 1, . . . , n, i 6= j . (V+ + V− ) − En la aproximación de orden cero, para valores de τ no cercanos a 0, la solución ũ0ij (τ ) de (2.103) satisface la ecuación ũ0ij = V+ (n − 1) V− µ̃ij g̃j (ũ0j ) − H̃−jj (τ ), i, j = 1, . . . , n, i 6= j , (V+ + V− ) (V+ + V− ) (2.104) donde ũ0j (τ ) = n X i=1 78 ũ0ij (τ ), de (2.104) se concluye que ũ0j = n X ũ0ij (τ ) = i=1 n X V+ (n − 1) (n − 1)V− jj µ̃ij + ũ0jj − g̃j (ũ0j ) H̃− (τ ) , (V+ + V− ) (V + V ) + − i=1,i6=j (2.105) de donde se tiene : ũ0j = V+ (n − 1) (n − 1)V− jj (1 − µ̃jj )g̃(ũ0j ) − ũ0jj + H̃ (τ ) . (V+ + V− ) (V+ + V− ) − (2.106) Si suponemos que gj es una función sigmoide con un solo punto de inflexión, entonces la ecuación (2.106) admite una solución única u0j , para cualquier ũ0jj , si se cumple la condición V+ (n − 1) 0 (1 − µ̃jj )g̃j (u) < 1, para cada j = 1, . . . , n . (V+ + V− ) (2.107) En este caso, aplicando al sistema (2.99), (2.103) los resultados de la teorı́a de perturbaciones singulares para sistemas con parámetro pequeño y de la ecuación (2.106), tendremos que para cualquier compacto contenido en {τ > 0} la aproximación de orden cero de la variable de activación total, satisface la ecuación dũ0j d2 ũ0j +2 + ũ0j = 2 dτ dτ " # dũ0 V+ (n − 1) 0 µ̃jj g̃j (ũ0j ) + g̃j (ũ0j ) j + (V+ + V− ) dτ # " dg̃j 0 V+ (n − 1) d2 g̃j 0 (1 − µ̃jj ) (ũj ) + 2 (ũ ) + g̃j (ũ0j ) 2 (V+ + V− ) dτ dτ j " dH̃−jj (n − 1)V− d2 H̃−jj + 2 + H̃−jj − (V+ + V− ) dτ 2 dτ 79 # + 1 2 (λjj + v+ ) h i F̃jj (τ ) − I˜jj (τ ) . Teniendo en cuenta la expresión de H̃−jj y que 1 V− I˜jj (τ ) = jj 2 (V+ + V− ) (λ+ v+ ) = à d2 H̃−jj dH̃ jj + 2 − + H̃−jj dτ dτ ! V− e−τ /βj (βj − 1) [2aβj + (βj − 1)(aτ + b)] . (V+ + V− )βj2 Obtenemos finalmente la ecuación " # d2 ũ0j V+ (n − 1) 0 (1 − µ̃jj )gj (ũ0j ) + 1− (V+ + V− ) dτ 2 " # dũ0j V+ (n − 1) 0 2− (2 − µ̃jj )gj (ũ0j ) + (V+ + V− ) dτ à dũ0j V+ (n − 1) 00 − (1 − µ̃jj )gj (ũ0j ) (V+ + V− ) dτ ũ0j 1 − + (2.108) # " F̃jj (τ ) 2 (λjj + v+ ) !2 V+ (n − 1) g̃j (ũ0j ) = − (V+ + V− ) nV− (βj − 1)e−τ /βj [2aβj + (βj − 1)(aτ + b)] , (V+ + V− )βj2 donde el primer sumando del miembro derecho está asociado a la entrada aferente a la región Ωj proveniente de estructuras interiores del cerebro y el segundo sumando corresponde al control inhibitorio en Ωj . La ecuación (2.108) describe, en la aproximación de orden cero con respecto a las potencias de ², la evolución temporal de la variable de activación total en cada compartimento Ωj . 80 Nótese que el coeficiente (1 − µ̃jj ) corresponde a la contribución de los compartimentos Ωj con i 6= j a la activación de Ωj . Nótese además que bajo las suposiciones efectuadas se obtienen ecuaciones desacopladas para la variable de activación total en cada Ωj , aunque como señalamos en el párrafo anterior el efecto de los restantes compartimentos está encerrado en el coeficiente (1 − µ̃jj ). Finalmente hemos obtenido el teorema siguiente. Teorema 1 Supongamos que la corteza cerebral está dividida en n compartimentos mutuamente ajenos Ωj , j = 1, . . . , n y que se cumplen las siguientes hipótesis: 1. La función de distribución de densidad de conexiones entre dos localizaciones de la corteza está descrita por (2.75), (2.76), (2.79). 2. La función que describe la fracción del total de neuronas en una localización determinada que generan potenciales de acción debido a las sinapsis que provienen de neuronas ubicadas en otros compartimentos viene dada por las expresiones (2.86), (2.91) y (2.92). 3. Las conexiones excitatorias entre compartimentos diferentes son pocos en comparación con los que hay dentro de cada compartimento, según se expresa en (2.93). 4. Las entradas sinápticas aferentes a la corteza son pequeñas en el sentido de (2.100). 5. Entonces para la aproximación de orden cero de los promedios espaciales en cada Ωj de la variable de activación total u0j (τ ) = n X u0ij (τ ) (ver 2.87), i=1 se tiene la ecuación (2.108), si se cumple la condición (2.107). 81 Capı́tulo 3 ANÁLISIS MATEMÁTICO DEL MODELO DE ACTIVACIÓN DE LA CORTEZA CEREBRAL. 3.1 UN MODELO MATEMÁTICO PARA UNA REBANADA DE CORTEZA CEREBRAL Un problema importante en fisiologı́a es determinar bajo qué estı́mulos externos se puede lograr que una pequeña rebanada de corteza cerebral oscile en frecuencias determinadas de antemano. Con el modelo que hemos obtenido es posible estudiar este problema. Como estarı́amos considerando únicamente una pequeña rebanada de corteza cerebral, lo que tendrı́amos que hacer en nuestro modelo, es considerar que no se tiene variación espacial; en este caso, nuestro modelo serı́a un sistema de dos ecuaciones diferenciales ordinarias no lineales. Lo que nos proponemos estudiar, es las condiciones que debe cumplir el estı́mulo externo para que nuestro sistema de ecuaciones tenga soluciones periódicas. Ası́ que, el sistema de ecuaciones diferenciales ordinarias a estudiar es 82 d2 u dt2 h + 2λ+ v+ du + (λ+ v+ )2 u = V+ λ+ v+ λ+ v+ ḡ(u) + ḡ 0 (u) du dt dt · −V− e−λ− v− t (1 − 2 v+ d2 H̄− ) 2 dt2 v− i ¸ − + 2(λ+ v+ − λ− v− ) dH̄ + (λ+ v+ − λ− v− )2 H̄− dt +f+ (t) , (3.1) d2 H̄− = f− (t) , (3.2) dt2 donde f+ (t), f− (t) son funciones que están relacionadas con los estı́mulos externos a la pequeña rebanada de corteza. La ecuación (3.2) es muy fácil de resolver, sus soluciones son de la forma H̄− (t) = R(t) + at + b , (3.3) donde a, b son constantes y R(t) = Z t µZ s 0 0 ¶ f− (z)dz ds . (3.4) Sustituyendo (3.3) en (3.1), obtenemos la ecuación diferencial ordinaria no lineal que necesitamos estudiar d2 u dt2 h + 2λ+ v+ du + (λ+ v+ )2 u = V+ λ+ v+ λ+ v+ ḡ(u) + ḡ 0 (u) du dt dt · −V− e −λ− v− t (1 − i 2 v+ d2 R 2 ) dt2 v− i (3.5) +2(λ+ v+ − λ− v− )( dR + a) + (λ+ v+ − λ− v− )2 (R(t) + at + b) dt +f+ (t) . A continuación realizaremos un cambio de variable que nos permitirá reducir la ecuación a una ecuación diferencial equivalente más sencilla de estudiar. 83 Lema 3 Sea τ = λ+ v+ t, entonces la ecuación (3.5) es equivalente a la ecuación diferencial d2 u dτ 2 h + 2 du + u = V+ ḡ(u) + ḡ 0 (u) du dτ dτ −V− e − λ− v− τ λ+ v+ · (1 − 2 v+ d2 R 2 ) dτ 2 v− i + 2(λ+ v+ − λ− v− )( (λ+1v+ )2 dR + dτ ) +(λ+ v+ − λ− v− )2 ( (λR(τ 2 + + v+ ) aτ (λ+ v+ )3 + b ) (λ+ v+ )2 i a ) (λ+ v+ )2 (3.6) +f+ (τ ) . Demostración. Dividimos la ecuación (3.5) por (λ+ v+ )2 y usamos la regla de la cadena para obtener las derivadas necesarias de las funciones que aparecen en la ecuación con respecto a τ . En el siguiente resultado construiremos, a partir de la ecuación (3.6), una familia de ecuaciones diferenciales de primer orden dependiente de un parámetro. Esta familia de ecuaciones diferenciales de primer orden es equivalente a la ecuación diferencial de segundo orden (3.6), en el sentido que se enuncia en la siguiente proposición. Proposición 1 Si u es una solución de la ecuación diferencial (3.6) con condiciones iniciales u(0) = u0 y u0 (0) = u00 , entonces u es solución de la ecuación diferencial de primer orden du + u = V+ ḡ(u) + e−τ (F+ (τ ) + K) , dτ 84 (3.7) donde F+ (τ ) = à Rτ − −V− e 0 λ− v− ν λ+ v+ · (1 − 2 v+ d2 R 2 ) dν 2 v− + 2(λ+ v+ − λ− v− )( (λ+1v+ )2 dR + dν + (λ+ v+ − λ− v− )2 ( (λR(ν) 2 + + v+ ) a ) (λ+ v+ )2 aν (λ+ v+ )3 + i b ) (λ+ v+ )2 ´ + f+ (ν) eν dν (3.8) y K = u00 + u0 − V+ g(u0 ) . Recı́procamente, si u es una solución de (3.7) con u(0) = u0 , entonces, u es una solución de (3.6) con condiciones iniciales u(0) = u0 y u0 (0) = u00 . Demostración. Si multiplicamos la ecuación (3.6) por eτ , obtenemos eτ h d2 u dτ 2 i h i + 2 du + u = eτ V+ ḡ(u) + ḡ 0 (u) du + dτ dτ dF+ dτ Como " " # d2 u d τ du du e ( + u) = eτ +2 +u 2 dτ dτ dτ dτ # y V+ d τ du [e ḡ(u)] = V+ [ḡ(u) + ḡ 0 (u) ] dτ dτ (3.6) se transforma en " # d d τ du e ( + u) = [V+ eτ ḡ(u) + F+ (τ )] . dτ dτ dτ Entonces 85 . (3.9) eτ ( du + u) = V+ eτ ḡ(u) + F+ (τ ) + K , dτ donde K = u00 + u0 + V+ ḡ(u0 ) , entonces du + u = V+ ḡ(u) + e−τ (F+ (τ ) + K) . dτ Es decir, u es solución de la ecuación (3.7). El recı́proco se demuestra de manera similar. Ahora consideraremos que la entrada externa inhibitoria a la corteza cerebral es cero, es decir, tomaremos f− (t) ≡ 0. En este caso la ecuación (3.6) se reduce a " d2 u du du 0 + 2 + u = V ḡ(u) + ḡ (u) + dτ 2 dτ dτ −V− e − λ− v− τ λ+ v+ " # à a aτ b 2(λ+ v+ − λ− v− ) + (λ+ v+ − λ− v− )2 + 2 3 (λ+ v+ ) (λ+ v+ ) (λ+ v+ )2 +f+ (τ ) y F+ (τ ) = Rτ à − −V− e 0 à 2 +(λ+ v+ − λ− v− ) λ− v− ν λ+ v+ " 2(λ+ v+ − λ− v− ) b aν + 3 (λ+ v+ ) (λ+ v+ )2 !# a (λ+ v+ )2 ! + f+ (ν) eν dν En el siguiente resultado, probaremos que si escogemos el estı́mulo externo de tal manera que e−τ (F+ (τ ) + K) sea una función periódica en τ de perı́odo 86 !# T , se pueden proponer condiciones sobre ḡ para que la ecuación diferencial (3.7) tenga una única solución periódica, de perı́odo T . Observación Para lograr que e−τ (F+ (τ ) + K) sea una función periódica de perı́odo T , basta tomar f+ (τ ) = p(τ ) + q(τ ) donde p(τ ) sea una función cotinua periódica de perı́odo T y limτ →∞ q(τ ) = 0. Además, en nuestro caso se puede demostrar que la función q(τ ) decrece a cero en forma exponencial cuando τ tiende a ∞. En lo que sigue B = B[0, ∞) = {u : [0, ∞) → R| u es continua y acotada en [0, ∞)}, para u ∈ B, ||u||∞ = supt∈[0 ∞] |u(t)| sabemos que B es un espacio de Banach con ||u||∞ . Sea M = {u ∈ B : u(0) = u0 }, M es un subespacio cerrado de B. Teorema 2 Si e−τ (F+ (τ )+K) es una función continua en [0, ∞) y periódica de perı́odo T , ḡ una función tal que V+ supu∈R |ḡ 0 (u)| < 1, entonces la ecuación diferencial du + u = V+ ḡ(u) + e−τ (F+ (τ ) + K) dτ tiene una única solución acotada en [0 ∞) (3.10) Demostración. Por el método de variación de parámetros, u es una solución de (3.10) si y sólo si −τ u(τ ) = e u0 + Z τ 0 (e−τ es [V+ ḡ(u) + e−s (F+ (s) + K)])ds . (3.11) Vamos a construir un operador T : M → M que tiene un único punto fijo y este punto fijo será una solución de la ecuación (3.11) y por lo tanto de la ecuación (3.10). 87 Definamos T : M → M por −τ T u(τ ) = e u0 + Z τ 0 (e−τ es [V+ ḡ(u) + e−s (F+ (s) + K)])ds . (3.12) 1. Vamos a demostrar que T u es un elemento del espacio M |T u(τ )| ≤ |e−τ u0 | + ≤ |u0 | + V+ e−τ Rτ 0 |e−τ +s |V+ ḡ(u(s))|ds + Rτ 0 (|e−τ (F+ (s) + K)|)ds R Rτ s −τ τ 0 |F+ (s) + K|ds 0 e ds + e ≤ |u0 | + V+ e−τ (eτ − e0 ) + ||F+ (τ ) + K||∞ e−τ τ , por lo tanto |T u(τ )| ≤ |u0 | + V+ (1 − e−τ ) + ||F+ (τ ) + K||∞ eτ τ ≤ |u0 | + V+ + ||F+ (τ ) + K||∞ e−τ τ . Como limτ →∞ τ e−τ = 0 se tiene que |T u(τ )| ≤ m para cada τ ∈ [0 ∞). Ası́ si u ∈ M entonces, T u ∈ M 2. Ahora vamos a probar que T es una contracción. Sean u1 , u2 ∈ M , entonces |T u1 (τ ) − T u2 (τ )| ≤ Rτ 0 |e−τ +s [V+ (ḡ(u1 (s))) − (ḡ(u2 (s)))]|ds ≤ V+ e−τ supu∈R |ḡ 0 (u)|||u1 − u2 ||∞ R∞ s 0 e ds = supu∈R |ḡ 0 (u)|||u1 − u2 ||∞ V+ [1 − e−τ ] ≤ Sup|ḡ 0 (u)|u∈R ||u1 − u2 ||∞ V+ , por lo tanto ||T u1 − T u2 ||∞ ≤ k1 ||u − 1 − u2 ||∞ , con k1 = V+ supu∈R |ḡ 0 (u)| < 1. El operador T es una contracción y por el teorema del punto fijo de Banach, T tiene un único punto fijo u, el cual es una solución de la ecuación diferencial (3.10) En resumen hemos probado que si e−τ (F+ (τ )+K) es una función periódica, de perı́odo T , entonces la ecuación (3.10) tiene una única solución acotada 88 en [0, ∞). Por el Teorema 4.11 de la página 116 del libro [39], se tiene que la ecuación diferencial (3.9) tiene una solución periódica de perı́odo T , por la proposición 1, u es una solución periódica de la ecuación (3.6). Para garantizar que la solución periódica u cumpla con | u(τ ) |≤ max{V+ , V− } , es necesario considerar, en lugar del conjunto M , el conjunto cerrado M 0 , donde M 0 es M 0 = {u ∈ B | u(0) = u0 y exista τ0 ≥ 0 tal que | u(τ ) |≤ max{V+ , V− } para cada τ ≥ τ0 } . Se puede demostrar que el operador T definido en (3.12) tiene la propiedad de que T (M 0 ) ⊂ M 0 y ası́ la prueba del teorema 2 se puede repetir. 3.2 CONTROLABILIDAD DE LOS ESTADOS FISIOLÓGICOS DE LA CORTEZA CEREBRAL. En esta sección estudiaremos el problema del control de los estados fisiológicos de la corteza cerebral. Utilizaremos como elemento de control a las inhibiciones. Se considera que el papel de las inhibiciones es controlar el proceso de excitación. Esta hipótesis se refleja en el sistema (3.1), (3.2), ya que la función de densidad de actividad sináptica inhibitoria (H¯− ) aparece en la ecuación para la función de activación (u), pero no al revés. En lo que sigue consideraremos que 1. No existen entradas inhibitorias a la corteza cerebral, esto se traduce en que f− (t) ≡ 0 en la ecuación diferencial (3.1). 2. Los tiempos caracterı́sticos de las inhibiciones son mucho menores que los de las excitaciones. Por esto consideraremos que λ + v+ ¿ 1. λ − v− 89 (3.13) Ası́, la ecuación diferencial que estudiaremos es d2 u dt2 h + (λ+ v+ )2 u = V+ λ+ v+ λ+ v+ ḡ(u) + ḡ 0 (u) du + 2λ+ v+ du dt dt i −V− e−λ− v− t [2(λ+ v+ − λ− v− )α + (λ+ v+ − λ− v− )2 (αt + β)] (3.14) +f+ (t) . ya que H̄− debe satisfacer la ecuación (3.2) y por lo tanto, debe ser de la forma H̄− (t) = αt + β . Usando el cambio de variable τ = λ+ v+ t y el lema 3, la ecuación diferencial (3.14) es equivalente a la ecuación d2 u dτ 2 h + 2 du + u = V+ ḡ(u) + ḡ 0 (u) du dτ dτ λ −V− e v − λ− v− τ + + i h 2(λ+ v+ − λ− v− ) (λ+av+ )2 + (λ+ v+ − λ− v− )2 ( (λ+av+ )3 τ + +f+ (τ ) . (3.15) Ası́, el problema de control que queremos estudiar es el siguiente: dados u0 , u00 , T, uT y u0T , lo que queremos demostrar es que existen a, b números reales y u solución de la ecuación (3.15) tal que u(0) = u0 , u(T ) = uT y u0 (0) = u00 , u0 (T ) = u0T . Es decir queremos ver si el sistema dinámico determinado por la ecuación (3.15) es controlable. Para estudiar este problema, nos auxiliaremos de la proposición 1, la cual nos garantiza que u es una solución de (3.15) que satisface las condiciones iniciales u(0) = u0 , u0 (0) = u00 si, y sólo si, u satisface la ecuación diferencial de primer orden 90 i b ) (λ+ v+ )2 ) du + u − V+ ḡ(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ (3.16) K = u0 (0) + u(0) − V+ ḡ(u(0)) , (3.17) donde f0 (t) es una función relacionada con las entradas excitatorias a la corteza cerebral y ca,b (t) es la función (" ³ ca,b (t) = V− e " ³ + e λ λ v ´ "à 1− λ− v− t + + ´ v 1− λ− v− t + + #à −1 ! # # λ − v− t 1 1 −1 − + a λ + v+ λ+ v+ λ+ v+ λ + v+ ! ) λ− v− −1 b . λ+ v+ (3.18) Las constantes a y b están relacionadas con las condiciones iniciales de la inhibición. El problema de control que estudiaremos es: dado u0 , u00 , T > 0, uT , u0T ¿existirán a, b números reales y u solución de la ecuación (3.16) tal que u(0) = u0 , u(T ) = uT , ? 0 u (0) = u00 , 0 u (T ) = u0T . Este problema es equivalente a probar que la función U : R2 −→ R2 definida por à ! à ! a u(T, a, b) U = 0 b u (T, a, b) es sobreyectiva, donde u(t, a, b) es la solución de la ecuación diferencial (3.16) que cumple la condición inicial u(0) = u0 . Nota. Por la importancia que tienen las constantes a, b, es que ahora denotaremos a las soluciones de (3.16) por u(t, a, b). La dependencia de las condiciones iniciales se omitirá, ya que éstas condiciones estarán fijas. 91 Sabemos que U es una función diferenciable en R2 . Para demostrar que U es suprayectiva, probaremos que U es un mapeo abierto y también que U (R2 ) es un conjunto cerrado, y como R2 es conexo, se debe tener que U (R2 ) = R2 . Para simplificar la notación, introduciremos las siguientes funciones v(t) = u(t, a + ², b) − u(t, a, b) , ³ f1 (t) = e λ v ´ "à 1− λ− v− t + + à ³ f2 (t) = Como λ+ v+ λ− v− e ! (3.19) # λ − v− t 1 1 −1 − + , (3.20) λ + v+ λ + v+ λ + v+ λ+ v+ λ ´ v 1− λ− v− t + + !à −1 ! λ − v− −1 . λ + v+ (3.21) ¿ 1 se tiene que f1 (t) > 0 y f2 (t) < 0 para cada t ≥ 0 . Lema 4 Para cada 0 < τ ≤ T se cumple f1 (τ )f2 (T ) − f2 (τ )f1 (T ) < 0 . (3.22) Demostración. Sea f3 (τ ) = f1 (τ ) . −f2 (τ ) (3.23) Probaremos primero que f3 es una función decreciente en (0, T ], demostrando que f30 ≤ 0 en (0, T ]. Multiplicando y dividiendo (3.23) por λ e v −(1− λ− v− )τ + + y sustituyendo (3.20) y (3.21) en (3.23), se tiene 92 1 f3 (τ ) = λ + v+ τ λ e + v ( λ− v− −1)τ + + 1 λ− v − λ+ v + −1 −1 . (3.24) Derivando (3.24), se tiene ³ f30 (τ ) e λ− v− −1 λ+ v+ ´ ³ " τ λ v ´ 1− λ− v− τ =à ³ ´ !2 1 − e λ− v− −1 τ −1 e λ+ v+ + + à ! # λ− v− − −1 τ . λ+ v+ (3.25) El primer factor de (3.25) es mayor que cero, ası́ que, para probar que < 0 en (0, T ], necesitamos probar que el segundo factor de (3.25) es menor que cero; para esto, consideremos la función f30 ³ f4 (τ ) = 1 − e λ ´ v 1− λ− v− τ + + à ! λ − v− − −1 τ. λ + v+ Como f4 (0) = 0, entonces, si probamos que f4 es decreciente en (0, T ], se tendrı́a que f4 < 0 en (0, T ]. Pero à f40 (τ ) = ! ³ λ− v− −1 e λ+ v+ λ v ´ 1− λ− v− τ + + à !2 à ³ λ − v− − −1 λ + v+ e λ v ´ 1− λ− v− τ + + ! − 1 ≤ 0, por lo tanto, f4 es una función decreciente en (0, T ]. Ası́, f4 (τ ) ≤ 0 para τ ∈ (0, T ]. Esto último implica que f30 ≤ 0 en (0, T ], que es lo que querı́amos probar. Ahora, por ser f4 una función decreciente, para cada τ ∈ (0, T ],se tiene f1 (t) f1 (T ) ≥ −f2 (t) −f2 (T ) y como f2 (τ ) < 0 para cada τ , se tiene f1 (τ )f2 (T ) − f2 (τ )f1 (T ) < 0 . En lo que sigue, vamos a necesitar las siguientes derivadas ∂u0 ∂u0 ∂u (T, a, b), ∂u (T, a, b), (T, a, b) y (T, a, b) . ∂b ∂a ∂a ∂b Ası́ que vamos a calcular estas derivadas. 93 1. ∂u (T, a, b) . ∂a Como u(t, a, b), u(t, a + ², b) son soluciones de (3.16) se cumple que du (τ, a dτ + ², b) + u(τ, a + ², b) − V+ ḡ(u(τ, a + ², b)) = (3.26) −τ (f0 (τ ) + ca+²,b (τ ) + K)e du (τ, a, b) dτ , + u(τ, a, b) − V+ ḡ(u(τ, a, b)) = (3.27) −τ (f0 (τ ) + ca,b (τ ) + K)e , entonces, restando (3.27) a (3.26) y usando (3.19) se tiene dv + v − V+ (ḡ(u(τ, a + ², b)) − ḡ(u(τ, a, b))) = (ca+²,b (τ ) − ca,b (τ ))e−τ . dτ Ahora, tomando la parte lineal de ḡ(u(τ, a, b)), se tiene dv + v − V+ (ḡ 0 (u(τ, a, b)))v = (ca+²,b (τ ) − ca,b (τ ))e−τ , dτ pero como ca+²,b (τ ) − ca,b (τ ) = V− ²f1 (τ ) y v(T ) = V− ² Z T 0 e−t e− RT t (1−V+ ḡ 0 (u(τ,a,b)))dτ f1 (t) dt , (3.28) entonces, usando (3.19) y dividiendo (3.28) por ², se tiene u(T, a + ², b) − u(T, a, b) v(T ) = ² ² = V− 94 Z T 0 e−t e− RT t (1−V+ ḡ 0 (u(τ,a,b)))dτ f1 (t) dt . Tomando el lı́mite cuando ² −→ 0, se obtiene Z T RT ∂u −t − t (1−V+ ḡ 0 (u(τ,a,b)))dτ (T, a, b) = V− e e f1 (t) dt . (3.29) ∂a 0 De manera similar, se puede calcular 2. ∂u (T, a, b) ∂b . ∂u (T, a, b). ∂b Z T RT 0 ∂u (T, a, b) = V− e−t e− t (1−V+ ḡ (u(τ,a,b)))dτ f2 (t) dt. ∂b 0 3. (3.30) ∂u0 (T, a, b). ∂a Como u(t, a, b), u(t, a + ², b) son soluciones de (3.16) se cumple u0 (T, a, b) = V+ ḡ(u(T, a, b)) − u(T, a, b) + (f (T ) + c(T ) + K)e−T (3.31) y u0 (T, a+², b) = V+ ḡ(u(T, a+², b))−u(T, a+², b)+(f (T )+c(T )+K)e−T , (3.32) Restando (3.31) a (3.32), se obtiene u0 (T, a + ², b) − u0 (T, a, b) = V+ [ḡ(u(T, a + ², b)) − ḡ(u(T, a, b))] − [u(T, a + ², b) − u(T, a, b)] + [ca+²,b (T ) − ca,b (T )] = [V+ ḡ 0 (u(T, a, b)) − 1] [u(T, a + ², b) − u(T, a, b)] + e−T ²V− f1 (T ) . Entonces u0 (T, a + ², b) − u0 (T, a, b) = ² 95 " # u(T, a + ², b) − u(T, a, b) [V+ ḡ (u(T, a, b)) − 1] + e−T V− f1 (T ) , ² 0 Tomando el lı́mite cuando ² −→ 0, obtenemos ∂u0 ∂u (T, a, b) = [V+ ḡ 0 (u(T, a, b)) − 1] (T, a, b) + V− e−T f1 (T ) . (3.33) ∂a ∂a De la misma manera, se obtiene 4. ∂u0 (T, a, b). ∂b ∂u0 ∂u (T, a, b) = [V+ ḡ 0 (u(T, a, b)) − 1] (T, a, b) + V− e−T f2 (T ) . (3.34) ∂b ∂b Proposición 2 Sea U : R2 −→ R2 definida por à ! à ! a u(T, a, b) = 0 , U b u (T, a, b) donde u(t, a, b) es la solución de la ecuación diferencial (3.16) que cumple la condición inicial u(0) = u0 . Entonces U es un mapeo abierto. Demostración. Basta probar que localmente U es un mapeo abierto. Para probar que U es localmente un mapeo abierto, demostraremos que ∂u (T, a, b) ∂a DU (a, b) = det ∂u0 (T, a, b) ∂a para cada a, b elementos de R. 96 ∂u (T, a, b) ∂b ∂u0 (T, a, b) ∂b 6= 0 (3.35) DU (a, b) = ∂u ∂u0 ∂u0 ∂u (T, a, b) (T, a, b) − (T, a, b) (T, a, b) . ∂a ∂b ∂a ∂b (3.36) Sustituyendo (3.33) y (3.34) en (3.36) se obtiene " # ∂u ∂u DU (a, b) = (T, a, b) (T, a, b) [V+ ḡ 0 (u(T, a, b)) − 1] + V− e−T f2 (T ) ∂a ∂b " # ∂u ∂u ∂u − (T, a, b) (T, a, b) [V+ ḡ 0 (u(T, a, b)) − 1] − V− (T, a, b)f1 (T ) , ∂b ∂a ∂b entonces ( −T DU (a, b) = V− e ) ∂u ∂u (T, a, b)f2 (T ) − (T, a, b)f1 (T ) ∂a ∂b . (3.37) Sustituyendo (3.29) y (3.30) en (3.37) se obtiene "Z DU (a, b) = V−2 e−T T 0 −s − e e RT s 0 (1−V+ ḡ (u))dθ # {f1 (s)f2 (T ) − f2 (s)f1 (T )} ds . (3.38) Por el lema 4, se tiene f1 (t)f2 (T ) − f2 (t)f1 (T ) < 0 para 0 < t ≤ T y por lo tanto el integrando en (3.38) es estrictamente menor que 0 en el intervalo [0, T ], y por lo tanto DU (a, b) < 0 para cada a, b ∈ R . Ası́, hemos probado que U es localmente un mapeo abierto y por lo tanto que U es un mapeo abierto en R2 . Ahora demostraremos que U (R2 ) es un conjunto cerrado en R2 . Primeramente probaremos el siguiente lema. 97 Lema 5 Para cada T > 0 sea BT = {(u(T, a, b), u0 (T, a, b)) : (a, b) ∈ A}. Si BT es un conjunto acotado, entonces A es un conjunto acotado. Demostración. Primero demostraremos que los conjuntos ( −T α(T, a, b) = e ) Z T ca,b (s)ds : (a, b) ∈ A 0 (3.39) y {β(T, a, b) = ca,b (T ) : (a, b) ∈ A} (3.40) son acotados. Como u es solución de la ecuación (3.16), es decir satisface la ecuación du + u − V+ ḡ(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ entonces, por el método de variación de parámetros, u debe satisfacer −τ −τ u(τ ) = e u(0)+e V+ Z τ 0 s −τ ḡ(u(s))e ds+e Z τ 0 (f (s)+ca,b (s)+K)ds . (3.41) Evaluando (3.41) en T se tiene −T u(T, a, b) = u(0)e + V+ Z T 0 ḡ(u(s))e s−T −T ds + e Z T 0 (f (s) + ca,b (s) + K)ds . (3.42) Despejando α(T, a, b) de (3.42) se tiene −T α(T, a, b) = u(T, a, b)−u(0)e −V+ Z T 0 s−T ḡ(u(s))e ds−e −T Z T 0 (f0 (s)+K)ds , (3.43) entonces | α(T, a, b) |≤| u(T, a, b) | + | u(0)e−T | + | V+ RT 0 s−T ḡ(u(s))e −T ds | + | e 98 RT 0 (3.44) (f0 (s) + K)ds | . Ahora, por hipótesis existe N1 (T ) tal que | u(T, a, b) |≤ N1 (T ) para cada (a, b) ∈ A . (3.45) Además, como ḡ es acotada por 1 en R y e−τ ≤ 1 para τ ≤ 0, se tiene ¯ ¯ Z T ¯ ¯ ¯ ¯ s−T ¯ ≤ V+ T ¯ V+ ḡ(u(s))e ds ¯ ¯ 0 (3.46) y como f0 (τ ) es continua en el intervalo [0, T ], se tiene que, existe M (T ) tal que ¯ ¯Z ¯ T ¯ ¯ ¯ ¯ (f 0 (s) + K)ds ¯ ≤ M (T ) . ¯ 0 ¯ (3.47) Usando (3.45), (3.46), (3.47) en (3.44) se prueba que | α(T, a, b) |≤ N1 (T ) + u0 + V+ (T ) + M (T ) para cada (a, b) ∈ A (3.48) que es lo que querı́amos probar. Por (3.41) se tiene u0 (T, a, b) + u(T, a, b) − V+ ḡ(u(T, a, b)) = (f (T ) + ca,b (T ) + K)e−T . (3.49) Despejando β(T, a, b) de (3.49) se tiene que β(T, a, b) = u0 (T, a, b) + u(T, a, b) − V+ ḡ(u(T, a, b)) − (f (T ) + K)e−T , (3.50) entonces, | β(T, a, b) |≤| u0 (T, a, b) | + | u(T, a, b) | + (3.51) | V+ ḡ(u(T, a, b)) | + | (f (T ) + K)e−T | . Por la hipótesis existe N2 (T ) tal que | u0 (T, a, b) |≤ N2 (T ), para cada (a, b) ∈ A . (3.52) Usando (3.45) y (3.52) se tiene que | β(T, a, b) |≤ N2 (T ) + N1 (T ) + V+ + M1 (T ), para cada (a, b) ∈ A (3.53) 99 y por lo tanto se obtiene que {β(T, a, b) = ca,b (T ) : (a, b) ∈ A} es un conjunto acotado en R. Ahora, demostraremos que a y b deben satisfacer un par de ecuaciones. Z T α(T, a, b) = ³ −V− e λ v ´ 1− λ− v− T + + ca,b (s)ds = 0 ³ ( − 1 a + V− (−1)e λ + v+ λ v ´ 1− λ− v− T + + à ! ) λ − v− +1− −1 T b λ + v+ = A(T )a + B(T )b , donde ³ A(T ) = −V− e ³ ( λ λ v + + v ´ − 1− λ− v− T B(T ) = V− (−1)e ´ 1− λ− v− T + + 1 , λ + v+ à ! λ − v− −1 T +1− λ + v+ ) y β(T, a, b) = V− f1 (T )a + f2 (T )b . Por lo tanto, tenemos que se cumple A(T )a + B(T )b = α(T, a, b) , (3.54) V− f1 (T )a + V− f2 (T )b = β(T, a, b) . Si probamos que A(T ) B(T ) V− f1 (T ) V− f2 (T ) 100 es invertible, se tendrı́a que a b = A(T ) −1 B(T ) à V− f1 (T ) V− f2 (T ) α(T, a, b) β(T, a, b) ! para cada (a, b) ∈ A. Pero como hemos demostrado que α(T, a, b), β(T, a, b) son conjuntos acotados para cada T > 0, se concluye que A es un conjunto acotado. Probaremos que A(T )f2 (T ) − B(T )f1 (T ) 6= 0 . V−2 ³ A(T )f2 (T ) − B(T )f1 (T ) =e V−2 ³ Ã λ ´ v ´ v + + à 1 f2 (T )− λ + v+ ! ! λ− v− +1− − 1 t f1 (T ) . λ+ v+ 1− λ− v− T −e λ 1− λ− v− T (3.55) + + Como f2 (T ) < 0, ³ λ ´ v 1− λ− v− T e + + 1 f2 (T ) < 0 . λ+ v+ Sabemos también que f1 (T ) > 0, ası́ si probamos que à ³ e λ ´ v 1− λ− v− T + + à ! λ − v− −1+ −1 T λ + v+ ! < 0, (3.56) demostrarı́amos la desigualdad A(T )V− f2 (T ) − B(T )V− f1 (T ) < 0. V−2 Para probar (3.56), consideremos la función à ³ f5 (t) = e λ v ´ 1− λ− v− t + + à ! λ − v− −1+ −1 T λ + v+ 101 ! . Se tiene que f5 (0) = 0 y su derivada es ! à ³ à f50 (t) Como λ− v− λ+ v+ λ − v− t e = 1− λ + v+ λ ´ v 1− λ− v− t + + ! −1 . À 1, se concluye que f50 (t) < 0 para cada t ≥ 0 . Por lo tanto f5 es un función decreciente en [0, ∞) y como f5 (0) = 0, se tiene f5 (T ) ≤ f5 (0) = 0 . Con esto último probamos (3.56). Por lo tanto hemos demostrado que A(T ) B(T ) V− f1 (T ) V− f2 (T ) es invertible. Que es lo que querı́amos demostrar. En la siguiente proposición, probaremos que U (R2 ) es un conjunto cerrado en R2 . Proposición 3 Si U : R2 −→ R2 definida por a U = u(T, a, b) , u0 (T, a, b) b donde u(t, a, b) es una solución de (3.16) con u(0) = u0 . Entonces U (R2 ) es un conjunto cerrado en R2 . 102 Demostración. Sea (uT , u0T ) ∈ U (R2 ), existe una sucesión {(an , bn ) : n ∈ N } tal que lim U n→∞ an = lim n→∞ bn u(T, an , bn ) = u0 (T, an , bn ) uT . u0T ³ ´ a Por demostrar que existen b en R2 y u solución de (3.16) tal que U a = b u(T, a, b) = u0 (T, a, b) uT . u0T Como {u(T, an , bn ), u0 (T, an , bn ) : n ∈ N } es un conjunto acotado en R2 , por el lema 5 se tiene que {(an , bn ) | n ∈ N } es un conjunto acotado en R2 , por el teorema de Bolzano-Weierstrass, existe una subsucesión convergente {(anj , bnj ) | j ∈ N } de {(an , bn ) | n ∈ N }. Sea (a, b) el lı́mite de esta subsucesión. Por la continuidad de las soluciones u(t, anj , bnj ) se tiene que lim u(T, anj , bnj ) = u(T, a, b) , j→∞ ası́ u(T, a, b) = uT . Además, como u0 (T, anj , bnj ) = −u(T, anj , bnj ) + V+ ḡ(u(T, anj , bnj )) +(f (T ) + canj ,bnj (T ) + K)e−T , lim (−u(T, anj , bnj )) = −u(T, a, b) , j→∞ 103 lim (V+ ḡ(u(T, anj , bnj ))) = V+ ḡ(u(T, a, b)) , j→∞ y lim ((f (T ) + canj ,bnj (T ) + K)e−T ) = (f (T ) + ca,b (T ) + K)e−T j→∞ se tiene que lim u0 (T, anj , bnj ) = u0 (T, a, b) . j→∞ por lo tanto hemos demostrado que U (R2 ) es un conjunto cerrado en R2 . En resumen, hemos probado que el mapeo U : R2 −→ R2 definido por a U = u(T, a, b) , u0 (T, a, b) b donde u(T, a, b) es una solución de (3.16) con condición inicial u(0) = u0 es un mapeo sobreyectivo. Teorema 3 El sistema dinámico d2 u dτ 2 h + 2 du + u = V+ ḡ(u) + ḡ 0 (u) du dτ dτ λ −V− e v − λ− v− τ + + i h 2(λ+ v+ − λ− v− ) (λ+av+ )2 + (λ+ v+ − λ− v− )2 ( (λ+av+ )3 τ + +f+ (τ ) (3.57) es controlable en R2 , es decir, dados u0 , u00 y T, uT y u0T , existen a, b números reales y u solución de la ecuación (3.57) tal que u(0) = u0 , u(T ) = uT y u0 (T ) = u0T . u0 (0) = u00 , 104 i b ) (λ+ v+ )2 ) Demostración. Sean u0 , u00 y T, uT y u0T dados. Por la proposición 2, U : R2 → R2 definido por a U = b u(T, a, b) , u0 (T, a, b) donde u(t, a, b) es una solución de du + u − V+ ḡ(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ con K = u0 (0) + u(0) − V+ ḡ(u(0)), es un mapeo abierto en R2 . Por la proposición 3, U es un mapeo cerrado en R2 , por lo tanto como R2 es conexo, se tiene que U es suprayectiva, es decir, existen a, b ∈ R y u solución de du + u − V+ ḡ(u) = (f0 (τ ) + ca,b (τ ) + K)e−τ , dτ con u(0) = u0 , u(T ) = uT , u0 (0) = u00 , u0 (T ) = u0T y K = u0 (0) + u(0) − V+ ḡ(u(0)) . Pero por la proposición 1, u también es solución de (3.57), y ası́ hemos demostrado el teorema. 105 3.3 EXISTENCIA DE ONDAS VIAJERAS EN LA CORTEZA CEREBRAL En esta sección estudiaremos la existencia de estados fisiológicos que se corresponden con la existencia de ondas viajeras (ondas que se propagan por el medio cortical sin perder su forma) en la ecuación (2.71). En el caso de modelos matemáticos de neuronas se ha demostrado la existencia de ondas viajeras [30], [48], [101]. También se ha estudiado este problema en otro tipo de procesos de reacción difusión [102]. Buscaremos bajo qué condiciones la ecuación diferencial parcial " # 2 ∂2u ∂u ∂u 2 2 ∂ u 0 + 2λ v + (λ v ) u − v = V λ v λ v ḡ(u) + ḡ (u) + + + + + + + + + + ∂t2 ∂t ∂x2 ∂t (3.58) tenga soluciones de la forma: u(x, t) = φ(x − ct) para algunos valores de la constante c. Como en la sección anterior, haremos algunos cambios de variable, que no alteran el resultado buscado, pero que nos permitirán construir una ecuación diferencial parcial equivalente a (3.58) más sencilla de estudiar. Si hacemos el cambio de variable τ = λ+ v+ t y y = λ+ x, la ecuación (3.58) es equivalente a la ecuación " # ∂2u ∂u ∂ 2u ∂u +2 + u − 2 = V+ ḡ(u) + ḡ 0 (u) . 2 ∂τ ∂τ ∂y ∂t (3.59) Para esta ecuación buscaremos soluciones de la forma u(y, τ ) = φ(y − cτ ) = φ(s) con s = y − cτ y tal que φ(−∞) = s0 = φ(∞) donde s0 es constante. Antes de estudiar este tema, enunciaremos algunos resultados importantes que usaremos más adelante en esta sección. Estos resultados no serán demostrados. Para ver la demostración de los Teoremas 4 y 5, recurrir a [23]. Teorema 4 Sea A una matriz n × n y f : R → Rn una función continua acotada Consideremos la ecuación diferencial 106 du = Au + f (t) . (3.60) dt La condición necesaria y suficiente para que la ecuación (3.60) tenga una única solución acotada en R, es que σ(A) no intersecte al eje imaginario. En este caso la solución acotada se expresa en la forma. u(t) = Z ∞ −∞ G(t − τ )f (τ )dτ , (3.61) donde G(t) es la función de Green principal de A, la cual se define como ( G(t) = eAt P− , −eAt P+ , t>0 t < 0, (3.62) donde P− , P+ son, respectivamente los proyectores sobre los subespacios propios con parte real positiva, negativa. Teorema 5 Consideremos la ecuación du = Au + f (t, u) . dt Supongamos que se cumplen las condiciones siguientes (3.63) 1. A es una matriz n × n, tal que σ(A) ∩ ({0} × R) = ∅ . (3.64) 2. Sea ρ > 0. Existe M > 0 tal que | f (t, u) |≤ M para t ∈ R y | u |≤ ρ . (3.65) 3. Existe q > 0 tal que | f (t, u1 ) − f (t, u2 |≤ q | u1 − u2 | para | u1 |≤ ρ y | u2 |≤ ρ . (3.66) 107 4. Existe N > 0 y r > 0 tal que | G(t) |≤ N e−rt para cada t ∈ R . (3.67) 5. M y q cumplen con M≤ ρr r y q< . 2N 2N (3.68) Entonces, la ecuación (3.63) tiene una única solución acotada en R, tal que | u(t) |≤ ρ para cada t ∈ R . (3.69) Ahora, demostraremos un lema, que usaremos posteriormente. Lema 6 Sea f : R2 → R2 continua. Supongamos que la ecuación diferencial dx = f (x), x ∈ R2 (3.70) dt tiene un único punto estacionario x0 , el cual es un punto silla. Entonces la condición necesaria y suficiente para que la ecuación (3.70) tenga una solución homoclı́nica es que tenga una solución no trivial acotada en R. Demostración. La suficiencia es evidente. Sea φ una solución no trivial acotada de (3.70). Como x0 es el único punto estacionario de la ecuación (3.70), y como además es un punto silla, el teorema de Poincaré-Bendixon, nos asegura que 1. limt→±∞ φ(t) = x0 o 2. ω(φ) = {x0 } = α(φ), donde ω(φ) y α(φ) son, respectivamente los conjuntos ω-lı́mite y α-lı́mite de la órbita generada por la solución φ . 108 En ambos casos, φ serı́a la solución homoclı́nica no trivial buscada. En lo que sigue, retomaremos el problema de la existencia de las ondas viajeras para la ecuación (3.59) à ! ∂u ∂2u ∂u ∂ 2u + 2 + u − = V+ ḡ 0 (u) + ḡ(u) . 2 2 ∂τ ∂τ ∂y ∂τ Es decir, buscaremos soluciones de la forma u(y, τ ) = φ(y − cτ ) , (3.71) donde φ es una función de una variable que cumple que el lim φ(s) = φ0 , s→±∞ (3.72) donde φ0 es una constante. Ahora veremos que la existencia de soluciones de la ecuación (3.59) que son de la forma (3.71) y que cumplen con la condición (3.72), es equivalente a la existencia de soluciones de una ecuación diferencial ordinaria de segundo orden, que cumplen con la condición (3.72). Si u es una solución de la ecuación (3.59) de la forma (3.71), que cumple con la condición (3.70), entonces usando la regla de la cadena, obtenemos ∂u = −c dφ , ∂τ ds 2 ∂ 2 u = c2 d φ , ∂τ 2 ds2 ∂u = dφ , ∂y ds 2 ∂ 2u = d φ . 2 ∂y ds2 Sustituyendo estas derivadas en la ecuación (3.59) y reordenando la ecuación, obtenemos que φ debe ser solución de la ecuación d2 φ dφ (c − 1) 2 + c(V+ ḡ 0 (φ) − 2) + (φ − V+ ḡ(φ)) = 0 . (3.73) ds ds Recı́procamente, si φ es solución de (3.73) que cumple con la condición (3.72) entonces la función 2 u(y, τ ) = φ(y − cτ ) es una solución de la ecuación (3.59). 109 Observación. En lo que sigue supondremos que 0 < c < 1, ya que esto corresponde a una velocidad real de propagación, cV+ , la cual no puede ser superior a la velocidad de propagación de los potenciales de acción. También tenemos que la ecuación (3.73) es equivalente al sistema de ecuaciones de primer orden. à ! d φ = dt ψ 0 1 1 1−c2 −2c 1−c2 à ! à ! 0 φ V+ , + ψ 1 − c2 cḡ 0 (φ)ψ − ḡ(φ) (3.74) donde ψ(s) = dφ ds La existencia de ondas viajeras para la ecuación (3.59) es equivalente a la existencia de soluciones homoclı́nicas para la ecuación (3.74) para algún valor de c ∈ (0, 1). De (3.73) es evidente que para c = 1 no puede haber soluciones homoclı́nicas para esta ecuación. En lo que sigue supondremos que ḡ 0 (φ) < 1 para cada φ ∈ R . V+ (3.75) Con esta condición veremos que el sistema (3.74) tiene un único punto estacionario para cualquier valor de la constante c que cumple 0 < c < 1. Además, este punto estacionario es independiente de c y es un punto silla del sistema. Con este resultado, el problema de encontrar soluciones homoclı́nicas para el sistema (3.74) se reduce al de buscar soluciones acotadas en R, diferentes de la trivial de este sistema. ³ ´ φ Como las soluciones estacionarias de (3.74) son de la forma 00 donde φ0 es raı́z de la ecuación φ − V+ ḡ(φ) = 0 . De la condición V+ ḡ 0 (φ) < V1+ , se concluye que esta ecuación tiene una única solución φ0 , que corresponde a una única solución estacionaria de (3.74). 110 Para determinar si el punto estacionario es un punto silla, estudiaremos la “parte lineal” del sistema en un entorno del punto estacionario. Calculando la derivada del lado derecho de (3.74) en el punto estacionario y haciendo algunos cálculos obtenemos que la “parte lineal” del sistema en un entorno del punto estacionario es à ! d φ = dt ψ 0 1 1 (V+ ḡ 0 (φ0 ) c2 −1 − 1) c (2 c2 −1 − V+ ḡ 0 (φ0 )) à ! φ . ψ (3.76) Su ecuación caracterı́stica es : · ¸ c 1 λ λ+ 2 (V+ ḡ 0 (φ0 ) − 2) + 2 (V+ ḡ 0 (φ0 ) − 1) = 0 . c −1 c −1 (3.77) Las raı́ces de (3.77) son λ± = c (2 c2 −1 − V+ ḡ 0 (φ0 )) ± q ( c2c−1 (2 − V+ ḡ 0 (φ0 ))2 + 1 (V+ ḡ 0 (φ0 ) c2 −1 2 − 1)) . (3.78) Ahora, como V+ ḡ (φ0 ) < 1 y 0 < c < 1, obtenemos 0 < λ+ y λ− < 0. 0 ³ ´ φ Por lo tanto 00 es un punto silla de (3.76) para cualquier valor de 0 < c < 1. Según el lema 6, la existencia de soluciones homoclı́nicas de (3.74) es ³ ´ φ0 equivalente a la existencia de soluciones acotadas diferentes de la trivial 0 . Por el teorema 4, si se denota por Ac = 0 1 1 1−c2 −2c 1−c2 (3.79) y G(t, c) la correspondiente función de Green principal, entonces las soluciones acotadas en R de (3.74) coinciden con las soluciones acotadas de la ecuación integral à ! V+ Z ∞ 0 φ G(t − τ, c) dτ . = 1 − c2 −∞ cḡ 0 (φ(τ )ψ(τ ) − ḡ(τ ) ψ à ! 111 (3.80) Ahora estudiaremos bajo qué condiciones la ecuación integral (3.80) tiene soluciones acotadas. Lema 7 La función de Green principal de Ac es 1 − c c2 − 1 t 1 c−1 e , 2 −1 1 + c si t > 0 1 + c 1 − c2 t − 12 e c+1 , 1 1−c si t < 0 . G(t, c) = (3.81) Demostración. Según (3.62), requerimos calcular eAc t y los proyectores P+ , P− . Los valores propios de Ac son 1 1 , . (3.82) 1+c c−1 Usando la forma canónica de Jordan de Ac , y realizando algunos cálculos, que no escribiremos aquı́, obtenemos eAc t 1 t = e 1+c 2 1 + c 1 − c2 1 1−c 1 t + e c−1 2 1 − c c2 − 1 −1 . (3.83) 1+c Los proyectores son à ! Pc+ x 1 = 2 y à ! Pc− 1 x = y 2 1 + c 1 − c2 1 112 à ! x , y 1−c 1 − c c2 − 1 −1 1+c (3.84) à ! x . y (3.85) Sustituyendo (3.83), (3.84) y (3.85) en (3.62), se obtiene 1 − c c2 − 1 t 1 c−1 e , 2 −1 1 + c si t > 0 1+c t 1 c+1 −2e 1 si t < 0 . G(t, c) = 1 − c2 (3.86) , 1−c Lema 8 −|t| | G(t) |≤ (1 + c)e 1+c . (3.87) Demostración. Se concluye del lema 7 y del hecho que la norma del operador M (x, y) = a11 a12 à ! x a21 a22 y cumple | M |≤ 2K , donde K= max 1≤i≤2, 1≤j≤2 | aij | . Para obtener estimados más simples –sin perder generalidad– del integrando en la ecuación integral, supondremos 1 con α > 0, β > 0 . (3.88) 1 + e−αu+β Obteniendo la primera y segunda derivada de ḡ, definida por (3.88) se tiene ḡ(u) = ḡ 0 (u) = αḡ(1 − ḡ) , 113 (3.89) ḡ 00 (u) = αḡ 0 (1 − 2ḡ) , (3.90) | ḡ 0 |≤ α , (3.91) | ḡ 00 |≤ 2α2 . (3.92) Lema 9 Sea ρ > 0. Si | φ |2 + | ψ |2 ≤ ρ2 , | φi |2 + | ψi |2 ≤ ρ2 para 1 ≤ i ≤ 2 . Entonces, se tienen las siguientes desigualdades | cḡ 0 (φ)ψ − ḡ(φ) |≤ cαρ + 1 , (3.93) | (cḡ 0 (φ1 )ψ1 − ḡ(φ1 )) − (cḡ 0 (φ2 )ψ2 − ḡ(φ2 )) |≤ 2α(αρc + 1) . (3.94) Demostración. Se sigue inmediatamente de (3.91) y (3.92). Proposición 4 Supongamos que en el sistema (3.74) la función ḡ tiene la forma 1 ḡ(φ) = , α > 0, y β > 0 . 1 + e−αφ+β 1 } Supongamos además que V+ α < 14 . Entonces para cada ρ > max{φ0 , 2α existe 0 < c(ρ) < 1 tal que para cada 0 < c < ³c(ρ), la única solución acotada ´ φ de este sistema contenida en la bola cerrada { ψ ∈ R2 :| φ |2 + | ψ |2 ≤ ρ2 }, ³ es la solución estacionaria ³ c(ρ) = 1+ 1 αρ + 1 4α2 ρV+ ´ ´ φ0 0 . Además c(ρ) viene dada por + r³ 1+ 1 αρ + 2 114 1 4α2 ρV+ ´2 −4 ³ 1 αρ − 1 4α2 ρV+ ´ . (3.95) Observación. ³ ´ φ La condición V+ α < 14 garantiza que 00 es el único punto estacionario del sistema (3.74), donde φ0 es la única solución de la ecuación φ − V+ ḡ(φ) = 0 . Demostración. Demostraremos que bajo las condiciones de esta proposición, el sistema (3.74) cumple con las condiciones del teorema 4, y que por lo tanto este sistema en la bola cerrada ³ ´ debe tener una única solución acotada u ³ contenida ´ φ φ0 2 2 2 2 { ψ ∈ R :| φ | + | ψ | ≤ ρ }, pero como 0 es también una solución acotada del sistema contenida en la misma bola cerrada, se debe tener que ³ ´ φ0 0 es la única solución del sistema (3.74) en esta bola cerrada. Pasemos a demostrar que el sistema (3.74) cumple con las hipótesis del teorema 5. Los valores propios de la matriz Ac son 1 , 1+c 1 , c−1 por lo tanto Ac cumple con la condición (3.64). Por el lema 9 se tiene V+ 1 − c2 ¯Ã ¯Ã !¯ !¯ ¯ ¯ φ ¯ ¯ V+ 0 ¯ ¯ ¯ ¯ (cαρ + 1) para ¯ ¯ ¯≤ ¯ ≤ ρ, 0 2 ¯ cḡ (φ)ψ − ḡ(φ) ¯ ¯ 1−c ψ ¯2 V+ 1 − c2 ¯Ã !¯ ¯ ¯ 0 ¯ ¯ ¯ ¯ 0 0 ¯ cḡ (φ1 ) − ḡ(φ1 ) − (cḡ (φ2 )ψ2 − ḡ(φ2 )) ¯ ¯Ã ! à ¯ φ V+ φ2 1 ¯ ≤ 2α(αρc + 1) ¯ − 2 ¯ 1−c ψ1 ψ2 para ¯Ã !¯ ¯Ã !¯ ¯ φ ¯ ¯ φ ¯ 1 ¯ 2 ¯ ¯ ¯ ¯ ¯ ≤ρ y ¯ ¯ ≤ ρ. ¯ ψ1 ¯ ¯ ψ2 ¯ 2 2 115 !¯ ¯ ¯ ¯ ¯ 2 2 Ası́, también se cumplen las condiciones (3.66), (3.67), con M = (cαρ + 1) V+ , 1 − c2 q = 2α(αρc + 1) V+ . 1 − c2 Por los lemas 7 y 8, se tiene que la función de Green principal, G(t, c), de Ac cumple −|t| | G(t, c) |≤ (1 + c)e 1+c , por lo tanto, también se cumple (3.67) con N =1+c y r = 1 . 1+c Sólo nos falta probar la condición (3.68), es decir, nos falta probar que bajo las condiciones de la proposición 4 se cumple (cαρ + 1)V+ ρ ≤ , 2 1−c 2(1 + c)2 (3.96) 2α(αρc + 1)V+ 1 < . 2 1−c 2(1 + c)2 (3.97) Multiplicando (3.96), (3.97) por 1−c2 y simplificando obtenemos que este sistema de desigualdades es equivalente a (cαρ + 1)V+ ≤ ρ(1 − c) , 2(1 + c) 2α(αρc + 1)V+ < (3.98) 1−c . 2(1 + c) (3.99) Realizando algunas operaciones y reordenando obtenemos que el sistema (3.98), (3.99) es equivalente al sistema à ! 1 1 1 1 P1 (c) = c2 + 1 + + c+ − ≤ 0, αρ 2V+ α αρ 2V+ α à ! à 1 1 1 1 + 2 c+ − 2 P2 (c) = c + 1 + αρ 4α ρV+ αρ 4α ρV+ 2 116 (3.100) ! < 0. (3.101) Ası́ que necesitamos probar que P1 (c) ≤ 0 , P2 (c) < 0 . (3.102) (3.103) Para probar esto, obtengamos las raı́ces de los polinomios cuadráticos P1 (c), P2 (c). Las raı́ces de P1 son ³ λ1± (ρ) = − 1+ 1 αρ + 1 2V+ α ´ ± r³ 1 αρ 1+ + 1 2V+ α ´2 −4 ³ 1 αρ − 1 2V+ α 2 ´ . (3.104) Las raı́ces de P2 son ³ λ2± (ρ) = − 1+ 1 αρ + 1 2V+ α ´ ± r³ 1+ 1 αρ + 1 4ρV+ α2 ´2 −4 2 Como por hipótesis V+ α < 1 4 yρ> 1 2α ³ 1 αρ − ´ 1 4α2 ρV + . (3.105) se tiene 1 1 − 2 < 0, αρ 4α ρV+ por lo tanto las raı́ces de P1 (c) son reales, una negativa, λ1− (ρ), y la otra positiva λ1+ (ρ). Lo mismo ocurre con P2 (c), tiene una raı́z negativa, λ2− (ρ) y otra raı́z positiva, λ2+ (ρ). Entonces P1 (c) ≤ 0 para λ1− (ρ) ≤ c ≤ λ1+ (ρ) , (3.106) P2 (c) < 0 para λ1− (ρ) < c < λ2+ (ρ) . (3.107) Además λ2+ (ρ) < λ1+ (ρ) , 117 (3.108) esto último se sigue de la expresión para cada uno de ellos y del hecho que 4α2 ρV+ = 2αρ(2V+ α) > (2V+ α) ya que ρ > 1 . 2α También es fácil probar que λ1+ (ρ) < 1. Ası́, si tomamos 0 < c(ρ) = < 1 se tiene que, para cualquier 0 < c < c(ρ) λ1+ (ρ) P1 (c) ≤ 0 , P2 (c) < 0 , que es lo que deseábamos demostrar. Resumiendo, con las condiciones de la proposición 4, el sistema (3.74) cumple con las condiciones del teorema 5, para cualquier 0 < c < c(ρ). Esto es lo que querı́amos demostrar. 1 }, Con la proposición 4, hemos demostrado que si V+ α < 14 , ρ > max{φ0 , 2α entonces el sistema (3.74) no puede tener soluciones homoclı́nicas para 0 < c < c(ρ), por lo tanto, la no existencia de ondas viajeras para la ecuación (3.59), cuando tomamos 0 < c < c(ρ). 1 } Ahora pasaremos a analizar qué sucede cuando tomamos ρ > max{φ0 , 2α y c(ρ) < c < 1. 1 } el espacio β , Para esto, consideremos, para ρ > max{φ0 , 2α ρ (à ! βρ = à ! φ φ : R −→ R2 : ψ ψ ) es continua, k φ k2∞ +kψ k2∞ ≤ ρ 2 . Sabemos que βρ es un de Banach. Consideremos la familia de µ³ espacio ´ ¶ φ operadores integrales F ψ , c definida por Ãà ! F ! à ! φ φ ,c = − F1 ψ ψ Ãà ! ! φ ,c , ψ (3.109) donde Ãà ! F1 ! à ! V+ Z ∞ φ 0 ,c = G(t − τ, c) dτ . cḡ 0 (φ(τ ))ψ(τ ) − ḡ(φ(τ )) ψ 1 − c2 −∞ (3.110) 118 µ³ ´ ¶ φ ψ , c actúe de βρ a βρ , c debe cumplir con la condición Para que F (3.100). De aquı́ concluı́mos que aquellos valores de c para los cuales es posible encontrar soluciones homoclı́nicas del sistema (3.74), son los que cumplen λ2+ (ρ) < c < λ1+ (ρ) . Ası́ consideremos F : βρ × (λ2+ (ρ), λ1+ (ρ)) −→ βρ definido por (3.109) . ³ φ ´ Como 00 es un punto estacionario del sistema (3.74) para cada 0 < c < 1, tenemos que Ãà ! F ! φ , c = 0 para cada λ2+ (ρ) < c < λ1+ (ρ) . 0 ³³ ´ ´ Entonces, si lograramos probar que DF φ00 , c es invertible, y que se cumplen ³³ las otras condiciones del teorema de la función implı́cita ³ en ´ un en´ ´ φ0 φ0 torno de , c , se concluirı́a que existen U, V vecindades de 0 y c res0 pectivamente, tal que para cada c∗ ∈ V , existe una única L (c∗ ) = tal que Ãà ! ³ ´ φ ψ ∈U ! φ , c∗ = 0 , ψ F ³ ´ φ pero entonces, ψ serı́a una solución acotada en R, no trivial del sistema (3.74) y por lo tanto una solución homoclı́nica del mismo sistema, a la cual le corresponderı́a una onda viajera de la ecuación (3.59) con velocidad c∗ . Ası́ que, en lo que sigue probaremos que el operador integral F con λ1+ (ρ) < c < λ2+ (ρ), cumple con las condiciones del teorema de la función implı́cita. ³³ ´ ´ Vamos ahora a calcular la derivada de Frechet de F en ψφ , c con λ1+ (ρ) < c < λ2+ (ρ). Por la forma que tiene F, basta calcular la derivada de Frechet de la función F1 . Además se tendrı́a que Ãà ! DF ! φ , c = I − DF1 ψ 119 Ãà ! ! φ ,c . ψ (3.111) ³ ´ φ Para hacer esto, calcularemos las derivadas de Gato de F1 en ψ con res³³ ´ ´ pecto a φ y ψ respectivamente. Denotaremos estas derivadas por δφ F1 ψφ , c , δψ F2 ³³ ´ φ ψ ´ , c respectivamente. Lema 10 Bajo las condiciones de la proposición 4, el³³operador ´ ´ integral F definido en (3.110), es de clase C 1 en un entorno de φ00 , c . Además la derivada parcial de Frechet de F con respecto a DF ³³ ´ φ ψ ³ ´ φ ψ ´ , la cual denotamos por , c , viene dada por Ãà ! DF con Ãà ! ! φ , c = I − DF1 ψ ! φ , 0 = δφ F1 ψ DF1 Ãà ! Ãà ! ! φ ,c , ψ ! φ , c + δψ F1 ψ Ãà ! φ ,c ψ ! (3.112) y Ãà ! ! φ ,c , ψ δφ F1 Ãà ! δψ F1 φ ,c ψ ! son las derivadas de Gato, con respecto a φ y ψ, respectivamente, las cuales vienen dadas por δφ F1 ³³ ´ φ ψ ´ , c (h) = " ! # à t −τ c+1 −V+ e c+1 Z ∞ c+1 e [ cḡ 00 (φ(τ ))ψ(τ ) − ḡ 0 (φ(τ ) ]h(τ ) dτ 2 1 + c t 1 " à ! # −τ e c−1 Z t c−1 + e c−1 [ cḡ 00 (φ(τ ))ψ(τ ) − ḡ 0 (φ(τ )) ]h(τ ) dτ , c + 1 −∞ 1 t Ãà ! δψ F1 ! à (3.113) ! −τ −V+ c e c+1 Z ∞ c+1 φ c+1 0 , c (k) = e ḡ (φ(τ ))k(τ ) dτ ψ 2 1 + c t 1 + t c−1 e 1+c Z t −∞ à −τ e c−1 t ! c−1 0 ḡ (φ(τ ))k(τ ) dτ . 1 120 (3.114) Demostración. Observemos que F1 ³³ ´ φ ψ ´ ,c = t " à ! # −τ −V+ e c+1 Z ∞ c+1 c+1 0 e cḡ (φ(τ ))ψ(τ ) − ḡ(φ(τ )) dτ 2 1 + c t 1 " à ! # −τ e c−1 Z t c−1 + e c−1 (cḡ 0 (φ(τ ))ψ(τ ) − ḡ(φ(τ )) dτ . c + 1 −∞ 1 t Calculemos la derivada de Gato de F1 en el punto ³³ ´ φ ψ aφ Ãà ! δφ F1 ! F1 φ , c (h) = lim ²→0 ψ à −τ c+1 V+ e c+1 Z ∞ c+1 =− lim e ²→0 2 1+c t 1 t ³³ ´ φ+²h ψ ´ , c − F1 à ³³ ´ φ ψ dτ (ḡ 0 (φ(τ ) + ²h(τ )) − ḡ(φ(τ )))ψ(τ ) c ² ḡ(φ(τ )) + ²h(τ ) − ḡ(φ(τ )) − ² δφ F1 ´ !# !" à à Entonces ,c (ḡ 0 (φ(τ ) + ²h(τ )) − ḡ 0 (φ(τ )))ψ(τ ) c ² ḡ(φ(τ ) + ²h(τ ) − ḡ(φ(τ )) − ² t φ ψ !" à à −τ e c+1 Z t c+1 c−1 + e c + 1 −∞ 1 ´ , c con respecto ³³ ´ ² (3.115) ´ , c (h) = 121 !# #) dτ . ! ! à ! # " t −τ V+ e c+1 Z ∞ c+1 c+1 00 0 − [cḡ (φ(τ ))ψ(τ )h(τ ) − ḡ (φ(τ ))h(τ )] dτ e 1 2 1 + c t + t 1+c e 1+c Z t " à De manera similar, se obtiene la derivada de Gato de F1 en respecto a ψ Ãà ! δψ F1 # c−1 [cḡ 00 (φ(τ )ψ(τ )h(τ ) − ḡ 0 (φ(τ ))h(τ )] dτ . 1 −τ e c−1 −∞ ! ! à ³³ ´ φ ψ ´ , c con ! −τ φ V+ c e c+1 Z ∞ c+1 c+1 0 , c (k) = e ḡ (φ(τ ))k(τ )dτ ψ 2 c + 1 t 1 t ! à −τ c−1 0 e c−1 Z t c−1 ḡ (φ(τ ))k(τ )dτ . + e 1 1 + c −∞ t Además, δφ F1 ³³ ´ φ φ ´ , c , δψ F1 ³³ ´ φ φ ´ , c son lineales como función de h y k ³ ´ φ respectivamente y continuas como función de ψ , se tiene que la derivada de ³ ´ φ Frechet de F1 con respecto a ψ existe y se puede calcular con la expresión (3.112). ³³ ´ ´ También es fácil probar que DF ψφ , c es continua en un entorno de ( ³ ´ φ ψ ,c ). Lema 11 Bajo las condiciones de la proposición 4, DF erador invertible. Demostración. Como Ãà DF ! ! φ0 , c = I − DF1 0 122 Ãà ! ! φ0 ,c , 0 ³³ ´ φ0 0 ´ , c es un op- basta probar que Evaluando (3.112) en Ãà DF1 ! φ0 ,c 0 ° Ãà ! !° ° ° φ0 ° °DF1 , c °° < 1 . ° ° 0 ³³ ´ ´ φ0 0 !à ! h = δφ F1 k , c obtenemos Ãà ! ! φ0 , 0 (h) + δψ F1 0 Ãà ! ! φ0 , c (k) , (3.116) 0 entonces ° Ãà ! ! à !° ° φ0 h °° ° °DF1 ,c ° ° 0 k ° ∞ ° ° ° ° Ãà ! ! Ãà ! ! ° ° ° ° φ0 φ0 ° ° ° ≤ °δφ F1 , c (h)° +°δψ F1 , c (k)°° ° ° ° ° 0 0 ∞ . ∞ (3.117) Obtengamos estimados para ° Ãà ! !° ° ° φ0 ° °δφ F1 , c °° ° ° 0 , ∞ Evaluando (3.113) en δφ F1 ³³ ´ φ0 0 ´ ³³ ´ φ0 0 ° Ãà ! !° ° ° φ0 ° °δψ F1 , c °° ° ° 0 . ∞ ´ , c obtenemos , c (h) = ! à à ! −τ −τ e c−1 Z t c−1 c+1 c−1 V+ ḡ(φ0 ) e c+1 Z ∞ c+1 h(τ )dτ + h(τ )dτ − e e c + 1 t 1 1 2 1 + c −∞ t à t ! à ! −τ −τ c+1 e c−1 Z t c−1 c−1 V+ cḡ 0 (φ0 ) e c+1 Z ∞ c+1 k(τ )dτ − k(τ )d(τ ) , + e e c + 1 t 2 1 c + 1 −∞ 1 t t entonces ° ° Ãà ! ! ° ° φ ° ° , c (h) ° °δφ F1 ° ° 0 ∞ √ t −τ V+ ḡ (φ0 ) √ 2 e c+1 Z ∞ c+1 ≤ c + 2c + 2 e dτ k h k∞ 2 c+1 t 0 + c2 − 2c + 2 t c−1 e 1+c Z t −∞ 123 τ e c−1 dτ k h k∞ . Calculando las integrales impropias y simplificando ° ° Ãà ! ! ° ° φ0 ° °δφ F1 , c (h)°° ° ° 0 ≤ ∞ ´ √ V+ ḡ(φ0 ) ³√ 2 c + 2c + 2 + c2 − 2c + 2 k h k∞ . 2 Para 0 < c < 1 se tiene que √ √ c2 + 2c + 2 es creciente, c2 + 2c − 2 es decreciente. Ası́ se tiene que ° ° Ãà ! ! ° ° φ0 ° °δφ F1 , c (h)°° ° ° 0 √ ´ V+ ḡ 0 (φ0 ) ³√ 5 + 2 k h k∞ . 2 (3.118) √ ´ V+ ḡ 0 (φ0 )c ³√ 5 + 2 k k k∞ . 2 (3.119) ≤ ∞ De manera similar se obtiene ° ° Ãà ! ! ° ° φ0 ° ° °δψ F1 , c (k)° ° ° 0 ≤ ∞ Sustituyendo (3.118), (3.119) en (3.117), obtenemos ° Ãà ! ! à !° ¶ ° ³√ √ ´ µq φ0 h °° V+ ḡ 0 (φ0 ) ° 2 2 (1 + c) 5 + 2 k h k∞ + k k k∞ . °DF1 ,c °≤ ° 2 k ° 0 Como 0 < c < 1 y V+ α < 1 4 obtenemos ° Ãà ! ! à !° ° φ0 h °° ° °DF ,c ° < 1, ° k ° 0 que es lo que querı́amos probar. Finalmente, tenemos el siguiente teorema. 124 Teorema 6 Supongamos que en el sistema (3.74), la función ḡ tiene la forma 1 ḡ(φ) = , α, β > 0 1 + e−αφ+β 1 y que αV+ < 14 . Entonces para cada ρ > max{φ0 , 2α }, existen c1 (ρ), c2 (ρ) con 0 < c1 (ρ) < c2 (ρ) < 1, tales que, para cada c, que cumpla 0 < c < c1 (ρ), la única solución acotada de³este sistema, contenida en la bola cerrada β[0, ρ], ´ φ0 es la solución estacionaria 0 . Mientras que, para cada c, con c1 (ρ) ≤ c ≤ c2 (ρ), existe una solución acotada, no trivial, del sistema, la cual también es una solución homoclı́nica, y a la que le corresponde una onda viajera de la ecuación (3.59) con velocidad v. La velocidad real de traslación de esta onda viajera es cV+ . Además c1 (ρ), c2 (ρ) son las raı́ces positivas de los polinomios cuadráticos definidos en (3.100), (3.101). Demostración. La existencia de c1 (ρ), fue demostrada en la proposición 4. Por los lemas 10 y 11 el operador integral F definido en (3.101) cumple con ³³las´ condi´ ciones del teorema de la función implı́cita en un entorno de φ00 , c , es decir, F ³³ ´ φ ψ ´ , c es de clase C 0 en un entorno de ³³ ´ φ0 0 ´ ,0 , F ³³ ´ φ0 ³0 ´ ,c = 0 y ´ φ0 0 ³ y´ c resφ pectivamente tales que, para cada c∗ ∈ V , existe un único elemento ψ ∈ U DF ³³ ´ φ0 0 ´ , c es invertible. Entonces existen entornos U y V de no trivial tal que Ãà ! F ! φ , c∗ = 0 . ψ ³ ´ φ Entonces ψ es una solución no trivial, acotada de (3.80) y por el teorema ³ ´ φ 3, ψ es una solución acotada, no trivial del sistema (3.74), la cual, por el lema 6, es una solución homoclı́nica del sistema (3.74). 3.4 ONDAS ESTACIONARIAS EN LA CORTEZA CEREBRAL. 125 En esta sección estudiaremos las oscilaciones pequeñas –con la misma frecuencia angular w para cada x ∈ R– de la ecuación ∂2u ∂t2 2 2 ∂ u + 2λ+ v+ ∂u + (λ+ v+ )2 u − v+ = ∂t ∂x2 h V+ λ+ v+ λ+ v+ ḡ(u) + ḡ 0 (u) ∂u ∂t i (3.120) alrededor de un estado de reposo de la misma (una solución u(x, t) ≡ u0 ). Este problema corresponde a considerar una banda circular de ancho infinitamente pequeño de corteza cerebral. Lo que queremos saber es si en nuestro modelo existen ondas estacionarias que se correspondan con los ritmos básicos del cerebro. Para estudiar este problema consideraremos una solución u(x, t) ≡ u0 de la ecuación (3.120). Tomaremos la parte lineal de esta ecuación alrededor de u0 y en la ecuación lineal buscaremos soluciones de la forma u(x, t) = u0 + L(x)eiwt , con L(x) una función periódica real, de periodo 2π y L(x) pequeño. 126 (3.121) Observación. En realidad, lo que buscamos son soluciones de la ecuación lineal de la forma u(x, t) = u0 + A(x) cos wt donde A(x) es una función periódica real, de periodo 2π. Pero como se tiene una ecuación lineal, basta encontrar soluciones de la forma (3.121) y después tomar la parte real de estas soluciones. Ahora, si u(x, t) ≡ u0 es una solución de (3.120) la “parte lineal” de esta ecuación alrededor de u0 es 2 ∂ 2 ū ∂ ū 0 2 0 2 ∂ ū + λ v (2 − V ḡ (u )) + [(λ v ) (1 − V ḡ (u ))]ū − v =0 + + + o + + + 0 + ∂t2 ∂t ∂x2 (3.122) donde ū = u − u0 Teorema 7 Sea u0 ∈ (0, V+ ) tal que, ḡ 0 (u0 ) = V2+ , supongamos además que 1 − λ2+ > 0. Entonces la ecuación (3.122) tiene soluciones de la forma ū(x, t) = L(x)eiwt , con L(x) una función periódica real, de periodo 2π. Más concretamente, si µq w = v+ ¶ 1− λ2+ , (3.123) ū(x, t) = A1 cos xeiwt (3.124) entonces con A1 constante, es una solución de (3.122). 127 Observación 2 , v+ Como ḡ 0 (u0 ) = esto nos garantiza que u(x, t) ≡ u0 es solución de la ecuación (3.120). Demostración. Sea w como en (3.123). Obtengamos las derivadas de (3.124) ∂ ū ∂t = (iw)A1 cos xeiwt , ∂ 2 ū ∂t2 = −w2 A1 cos xeiwt , ∂ ū ∂x = −A1 sen xeiwt , ∂ 2 ū ∂x2 = −A1 cos xeiwt . Sustituyendo estas derivadas en la ecuación (3.122) obtenemos −w2 A1 cos xeiwt + λ+ v+ (2 − V+ ḡ 0 (u0 ))iwA1 cos xeiwt 2 +[(λ+ v+ )2 (1 − V+ ḡ 0 (u0 )]A1 cos xeiwt + v+ A1 cos xeiwt = 2 2 (λ2+ − 1)v+ A1 cos xeiwt + (λ+ v+ )2 A1 cos xeiwt + v+ A1 cos xeiwt = 0 , ya que ḡ 0 (u0 ) = 2 V+ q y w = v+ 1 − λ2+ . 128 CONCLUSIONES. El principal modelo que hemos estudiado, a pesar de ser un modelo que tiene algunas simplificaciones importantes : modelo unidimensional sin curvatura, considerar una distribución de conexiones que depende únicamente de la distancia entre columnas y con escalas de decrecimiento que no dependen de las regiones corticales consideradas, las complicaciones intra e intercorticales están incluidas en las funciones R± , no tomar en cuenta explı́citamente la actividad neuroquı́mica, etc., nos ha permitido obtener un conjunto de resultados que pueden ser sujetos a ser estudiados experimentalmente y que en principio coinciden cualitativamente con algunos datos experimentales ya conocidos. Se debe destacar la relativa simplicidad del modelo obtenido y la posibilidad inmediata de incluir, aunque sea parcialmente, algunos elementos no considerados en el modelo principal como por ejemplo, escalas de decrecimiento que dependan de las regiones de corteza considerada, que la función de generación de potenciales de acción ḡ dependa de la columna y de la función de activación (ver el modelo de la sección 2.8) además de la posibilidad de construir un modelo matemático bidimensional de la corteza cerebral que además incluya, aunque sea parcialmente, la geometrı́a real de la corteza cerebral. Obviamente el estudio matemático de este problema resulta mucho más complejo. Consideramos que todo lo anteriormente enunciado, son los elementos más valiosos de la tesis. La inclusión en el modelo de la actividad neuroquı́mica nos parece que es un problema sumamente complejo pero en primera aproximación, considerando que la liberación de neurotransmisores es proporcional a la actividad sináptica, podrı́a ser incluida en el mismo. A continuación enlistamos las principales conclusiones de nuestro trabajo. 1. En este trabajo se han continuado desarrollando las ideas de Nuñez, [86], [87], [89], [92], en al menos dos direcciones : se han introducido modificaciones y agregado nuevos elementos al modelo. Además el tratamiento matemático del modelo ha sido diferente y más completo que el que le dió Nuñez. 2. En cuanto a resultados, se ha demostrado, que bajo ciertas condiciones,(teorema 6) existen ondas viajeras de actividad cortical que se propagan por la corteza cerebral con una velocidad de propagación menor que la velocidad de propagación de la actividad excitatoria. 129 También se ha demostrado,(teorema 2) que la actividad cortical de una rebanada de corteza se puede acoplar con la de una entrada aferente periódica sostenida. Esto ha sido demostrado experimentalmente [25], [78]. Además en estos trabajos también se concluye, experimentalmente, el papel controlador de la actividad inhibitoria en la corteza. Lo cual probamos en el teorema 3. 3. Los resultados obtenidos,(teorema 2, 6, 7) corresponden a estados fisiológicos muy especiales, ésto último se refleja en las restricciones impuestas a la función de activación neuronal. Consideramos que es necesario estudiar, posteriormente, la significación fisiológica de estas restricciones. 4. Hemos obtenido un modelo (sección 2.8), que en conjunto con estudios del problema inverso electroencefalográfico, nos permitirá estudiar, posteriormente, el diagrama de conexiones funcionales y de la función de activación neuronal en un estado fisiológico determinado. 5. El modelo compartimentado (2.8) puede ser usado para el estudio de otros sistemas del cerebro, como el sistema de los ganglios basales y el sistema lı́mbico. 6. Posteriormente será necesario realizar simulaciones computacionales de las soluciones del modelo con diversos valores de los parámetros involucrados y compararlos con mediciones experimentales. 130 Bibliografı́a [1] Abbott, L. F. [1990] : A network of oscillators, J. Phys. A. Math. Gen. 23 : 3835-3859. [2] Abbot, L. F., F., Kepler, T. B. [1990] : Model neurons from Hodgkin-Huxley to Hopfield In : Garrido (ed) Statistical mechanics of neural networks. Springer, Berlin, Heidelberg, New York. [3] Abeles, M. [1982] : Local Cortical Circuits in Studies in Brain Function 6, Springer Verlag, New York. [4] Amick, C, J, [1991] : A problem in neural networks. Proceedings of the Royal Society of Edinburgh. 118 : 225-236. [5] Amari, S. [1972] : Competitive and cooperative aspects in dynamics of neural excitation and self-organization, IEEE Trans on computers. [6] Amari, S. [1982] : A mathematical theory of self-organizing nerve sytems. In Proceedings of Biomathematics : Current Status and Perspectives. Ricciardi, L. M., Scott, A., ed. [7] Amari, S., Arbib, M. A (eds) [1982] : Competition and Cooperation in Neural Networks, Springer Verlag, New York. [8] Amari, S., Takeuchi, A. [1978] : Mathematical theory on formation of category detecting nerve cells. Biol. Cybernetics 29. 127-136. [9] Amir, A. [1994] : Uniqueness of the generators of brain evoked potential maps, IEEE Trans. on Biomedical-Engineering. Vol. 41,no.1-11. 131 [10] Andersen, P., Andersson, S.A. [1968] : Physiological basis of the alpha rhytm. Appleton-Century-Crofts, New York. [11] Anderson, J. A., Rosenfeld, E. [1988] : Neurocomputing Foundation of Research. Cambridge. The M.I.T. Press. [12] Beale, R.,Jackson, T. [1994] : Neural Computing : An Introduction, Institute of Physics Publishing, Bristol and Philadelphia. [13] Baumgärtel, H. [1985] : Analytic Perturbation Theory for Matrices and Operators. Birkhäuser Verlag Basel. Boston-Stuttgart. [14] Bogacz, J. y colaboradores. [1985] : Los potenciales evocados en el hombre. Ateneo, Buenos Aires. [15] Bower, J. M. [1992] : Modeling the nervous system. Trends in Neuroscience 15 : 411-412. [16] Buchholtz, F., Golowasch, J., Epstein, I. R., Marder, E. [1992] : Mathematical model of an identified stomatogastric neuron. J.Neurophysiol. 67 : 332-340. [17] Cardinali, D. P. [1992] Manual de Neurofisiologı́a. Ediciones Dı́az de Santos, S.A. Madrid, España. [18] Chauvet, G. A. [1993a] : Non-locality in biological systems results from hierarchy. Application to nervous system. Journal Math. Biol. 31. 475-486. [19] Cichocki, A., Unbehauen, R. [1993] : Neural Networks for Optimazation and Signal Processing, John Wiley, New York. [20] Coro, F. [1996] : Fisiologı́a Celular, Un enfoque biofı́sico, Textos Cientı́ficos , BUAP, Puebla. [21] Cronin, J. [1987] : Mathematical aspects of Hodgkin-Huxley neural theory, Cambridge University Press. [22] Cuffin, B.N. [1987] : The role of model and computacional experiments in the biomagnetic inverse problem.Phys.Med.Biol. 132 [23] Daleckii, Ju. L., Krein, M. G. [1974] : Stability of Solutions of Differential Equations in Banach Space. American Mathematical Society, Providence, Rhode Island. [24] Destexhe, A., Contreras, D., Sejnowski, T. J., Steriade, M. [1994] : A model of spindle rhytmicity in the isolated thalamic reticular nucleus. Journal of Neurophysiology. Vol. 72, No. 2. 803-1818. [25] Dickson, C. T., Alonso, A [1997] : Muscarinic induction of Synchronous population activity in the entorhinal cortex. Journal of Neuroscience. 17 (17:6729-6744). [26] Doya, K., Selverston, A.I. [1993] : Dimension reduction of biological neuron models by artificial neural networks, Neural Comp. Vol. 6 no. 4 : 697-717. [27] Farkas, Miklos. [1994] : Periodics Motions, Springer Verlag, New York. [28] Fitzhugh, R. [1961] : Impulses and physiological stages in theoretical models of nerve membrane. Biophys, J. 1 : 445-466. [29] Fitzhugh, R. [1969] : Mathematical models of excitation and propagation in nerve. In Biological Engineering H.P. Schwann.Mc Graw Hill Publications, New York. [30] Flores, G. [1991] : Stability Analysis for the Slow Traveling Pulse of the Fitzhugh-Nagumo System, Siam J. Math. Anal. Vol. 22, no. 2, 392-399. [31] Freeman J. A., Skapura, D.M. [1993] : Redes Neuronales. Algoritmos, aplicaciones y técnicas de programación. Addison-Wesley Iberoamericana Wilmington, Delaware. U.S.A. [32] Freeman, W.J.[1975] : Mass Action in the Nervous System, Academic Press, New York. [33] Freeman, W.J. [1979] : Nonlinear dynamics of paleocortex manifested in olfactory EEG, Biological Cybernetics. 35 : 21-37. 133 [34] Freeman, W. J. [1992] : Predictions on neocortical dynamics derived from studies in paleocortex. In : Induced rhythms of the brain, ed. E.Basar, T. H. Bullock. Birkhauser Boston Inc. 183-201. [35] Freeman, W. J. [1994] : Neural mechanisms underlying destabilization of cortex by sensory input. Physica D 75 : 151 - 64. [36] Fukushima, K. [1975] : Cognitron : a self organizing multilayered neural network, Biolog. Cybernetics. Vol. 20 : 121-136. [37] Fukushima, K. [1980] : Neocognitron : a self organizing neural network model for a mechanism of pattern recognition unaffected by shift in position, Biolog. Cybernetics. Vol. 36,193-202. [38] Galusinski, C. [1998] : Existence and Continuity of Uniform Exponential Attractors of the Singularity Perturbed Hodgkin-Huxley System. Journal of Differential Equations. 144 : 99-169. [39] Golomb, D., Guckenheimer, J., Gueron, S. [1993] : Reduction of a Channel Based Model for a Stomatogastric Ganglion LP Neuron. Biol. Cybern. 68 : 129-137. [40] Golomb, D., Rinzel, J. [1993] : Dynamics of globallly coupled inhibitory neurons with heterogeneity., Physical Review. E. Vol. 48,no. 6. [41] Golomb, D., Rinzel, J. [1994] : Clustering in globally coupled inhibitary neurons. Physics D. 72 : 259-282. [42] Golomb, D., Wang, X. J., Rinzel, J. [1994] : Synchronization Properties of Spindle Oscillations in a Thalamic Reticular Nucleus Model. J. Neurophysiology. Vol. 72, no.3, 1109-1126. [43] Grossberg, S. [1976] : Adaptative pattern classification and universal recording. Biolog. Cybernetics. Vol. 23 : 121-134 y 187-202. [44] Guckenheimer, J., Holmes, P. [1983] : Nonlinear oscillations dynamical systems, and bifurcations of vector fields. Springer, Berlin, Heidelberg, New York. 134 [45] Hale, J. K. [1963] : Oscillations in Nonlinear Systems. Dover, New York. [46] Hale, J. K. [1969] : Ordinary Differential Equations. Wiley Interscience. New York, London, Sydney, Toronto. [47] Hale, J. ; Kocak, H. [1991] : Dynamics and Bifurcations, Springer Verlag, New York. [48] Hastings, S. [1975/1976] : On traveling wave solutions of the Hodgkin-Huxley equations, Arch. Rational Mech. Anal. 60 : 229257. [49] Hastings, S. [1976] : On existence of homoclinic and periodic orbits for the Fitzhugh-Nagumo equations,Quart J. Math.27 : 123-134. [50] Hebb, D. O. [1949] : The organization of behavior. Wiley, New York. [51] Heiner, L. ; Záborszky, L. [1989] : Neuroanatomical Tract–Tracing Methods 2. Plenum Press. New York and London. [52] Heller, L. [1990] : Return Current in encephalography Variationals Principles, Biophysical Journal. Vol. 57 : 601-606. [53] Herman G. T. [1980] : Image reconstruction from projections. The fundamental of computerized tomography. Academic Press. [54] Herman G. T., Tuy H. K., Langenberg K. J., Sabatier P.C. [1985] : Basic methods of tomography and inverse problems. Malvern Physics Series. [55] Hilera, J. R., Martı́nez, V. J. [1995] : Redes neuronales artificiales. Fundamentos, modelos y aplicaciones. Addison-Wesley Iberoamericana. Madrid, España. [56] Hinton, G. Ackley, D. Sejnowski, T. [1984] : Boltzman machines : Constraint satisfaction networks than learn. Carnegie-Mellon University, Departament of Computer Science Technical Report. (CMU-CS-84-119). 135 [57] Hodgkin, A. L. ; Huxley, A.F. [1952] : A quantitative description of membrane current an its application to conductance and excitation in nerve, J. Physiol. Lond.117 : 500-544 [58] Holden, A. V., Hyde, J., and Muhamad, M. A. [1991] : Equilibria, Periodicity, Bursting and Chaos in Neural Activity, in Pasemann, F., and Doebner, H. D. (eds), World Scientific Pub., Singapore : 97-187. [59] Hopfield, J. J. [1982] : Neural networks and physical systems with emergent collective computational abilities, Proc. Natl.Acad.Sci. 79 : 2554-58. [60] Hopfield, J. J [1984] : Neurones with graded response have collective computational propierties like those of two states neurones. Proccedings of National Academy of Science. 81 : 3088-92 [61] Hoppensteadt, F. [1986] : An Introduction to the Mathematics of Neurons, Cambridge University Press. [62] Hoppensteadt, F.C. [1993] : Analysis and Simulation of Chaotic Systems, Springer Verlag, New York. [63] Hoppensteadt, F., Izhikevich, E. M. [1997] : Weakly Connected Neural Networks. Springer Verlag. New York, Inc. [64] Ingber, L. ; Nuñez P. [1990] : Multiple scales of statistical physics of Neocortex. Aplication to the Electroencephalography. Mathematical and Computer Modelling. [65] Ingber, L. [1991] : Statistical mechanics of neurocortical interactions : A scaling paradigm applied to electroencephalography., Physical Review. A 44 : 4017-60. [66] Ingber, L. [1994] : Statistical Mechanics of Multiple Scales of Neocortical Interactions. [67] Ingber, L. [1994] : Statistical Mechanics of Neocortical Interactions. : Path-integral evolution of Short-term memory. Physical Review E 49 : 4652-64. 136 [68] Ingber, L. [1995] : Statistical mechanics of multiple scales of neocortical interactions. In : Neocortical dynamics and human EEG. rhythms, ed. P.L. Nuñez. Oxford University Press. [69] Jahnsen, H. ; Llinas, R. [1984a] : Electrophysiological properties of guinea-pig thalamic neurons : An in vitro studio. J. Physiol. (London). 349 : 205-226. [70] Jahnsen, H. ; Llinas, R. [1984b] : Ionic basis for the electroresponsiveness and oscillatory properties of guinea-pig thalamic neurons in vitro. J. Physiol. (London) 349 : 227-2447. [71] Kandel, E. R., Schwartz, J. H. ; Jessell, T. M. [1997] : Neurociencia y conducta. Prentice Hall. Madrid. [72] Katznelson, R. D. [1981] : Normal modes of the brain : Neuroanatomical basis and a physiological theoretical model. In : Electric fields of the brain : The Neurophysics of EEG. P.L. Nuñez. Oxford University Press. New York. [73] Kepler, T. B., Abbot, L. F., Marder, E. [1992] : Reduction of conductance based neuron models. Biol. Cybern. 66 : 381-387. [74] Kevorkian, J., Cole, J. D. [1996] : Multiple Scale and Singular Perturbation Methods, Springer-Verlag, New York, Inc. [75] Lopes da Silva, F. H. [1991] : Neural mechanisms underlying brain waves : From neural membranes to networks electroencephagr. Clin. Neurophysiol. 79 : 81-93. [76] Lopes da Silva, F. H., van Rotterdam, A., Barts, P., van Heusden, E., Burr, B. [1976] : Models of neurones populations the basic mechanism of rhytmicity. Progress in Brain Research. 45 : 282308. [77] Lopes da Silva, F. A. ; Hoeks, A., Smiths, H. and Zettergerg L. H. [1974] : Model of Brain Rhytmic Activity, Kybernetik. 15 : 27-37. [78] Lukatch, H. S.; Mac Iver, B. [1997] : Physiology, Pharmacology and Topography of cholinergic neocortical oscillations in vitro. Journal of Neuroscience. 2427-2444. 137 [79] Mac. Gregor, R. J. [1987] : Neural and Brain Modeling. Academic Press, Inc. San Diego. Cal. [80] Mc Culloch, W. S. ; Pitts, W. H. [1943] : A logical calculus of ideas immanent in nervous activity, Bull. Math. Biophys. 5 : 115-33. [81] Menon, V. [1991] : Population oscillations in neuronal groups. International Journal of Neural Systems. Vol. 2, no. 3, 237-62. [82] Mischenko, E. F.; Rozov, N. Kh. [1980] : Differential Equations with Small Parameters and Relaxation Oscillations, Plenum, New York. [83] Mountcastle, V. B. [1978] : An organizing principle for cerebral function : the unit module and the distributed system. In : The Mindful Brain : Cortical Organization and the Group Selective theory of Higher Function, ed. G. M. Edelman and V. B. Mountcastle. MIT Press, Cambridge. [84] Mountcastle, V. B. [1998] : Perceptual Neuroscience the Cerebral Cortex. Harvard University Press. Cambridge, Massachusetts, and London, England. [85] Natterer, F. [1986] : The mathematics of Computerized Tomography. Teubner, Stuttgart. [86] Nuñez, P. L. [1981] : A study of origins of the time dependencies of scalp EEG : I. Theoretical basis, IEEE Trans. Bio-Med Eng. 28 : 271-280, 1981b. [87] Nuñez, P. L. [1981] : A study of origins of the time dependencies of scalp EEG: II. Experimental support of theory,IEEE Trans. BioMed Eng. 28 : 281-288, 1981c. [88] Nuñez, P. L. [1988] : Global Contribution to cortical dynamics : theoretical and experimental evidence for standing waves phenomena. In : Dynamics of Sensory and Cognitive Processing by the Brain. (E. Baser, Ed.). Springer Verlag. New York. 138 [89] Nuñez, Paul L; Katznelson, R. D. [1981] : Electric Fields on the Brain, the Neurophysics of EEG, Oxford University Press, New York. [90] Nuñez, P. [1989] : Generation of Human EEG by a combination of long and short range neurocortical interactions, Brain topography. 1 : 199-215. [91] Nuñez, P., Srinivasan, R. [1993] : Implications of recording strategy for estimates of neurocortical dynamics with electroencephalography chaos. 3 : 257-66. [92] Nuñez, P. L. [1995] : Neocortical Dynamics and Human EEG Rythms, Oxford University Press. [93] Plonsey, R. [1969] : Bioelectric Phenomena, Mc Graw Hill, New York. [94] Petsche, H., Sterc, J. [1968] : The significance of the cortex for the traveling phenomenon of brain waves. Electroencephalography and Clinical Neurophysiology. 25 : 1222. [95] Rall, W., Shepherd, G. M. [1968] : Theoretical reconstruction of field potentials and dendrodendritic synaptic interactions in olfactory bulb. J. Neurophysiol. 31 : 884-915. [96] Ramacher, U. [1993] : Hamiltonian Dynamics of Neural Networks. Neural Networks. 6 : 547-557. [97] Rinzel, J. ; Ermentrout, G. B. [1989] : Analysis of neural excitability and oscillations. In Methods of neural Modelling : From Synapses to networks (C. Koch and I. Segev. Eds), Cambridge, MA : MIT Press. [98] Rosenblatt, F. [1957] : The perception a perceiving and recognizing automation, , Cornell Aeronautical Laboratory Report. [99] Rose, R. M. ; Hindmarsh, J. L. [1985] : A model of a thalamic neuron, Proc. R. Soc. Lond. 139 [100] Rush, M. E., Rinzel, J. [1994] : Analysis of bursting in a thalamic neuron model. Biol. Cybern. 71, 281-291. [101] Sánchez, F., Maini, P. K. [1997] : Travelling wave phenomena in non-linear diffusion degenerate Nagumo equations. Journal of mathematical biology, 35 : 713-728. [102] Sánchez, F., Maini, P. K. [1997] : Travelling wave phenomena in some degenerate reaction diffusion equations. Journal of differential equations. Vol. 117, no. 2 : 281-319. [103] Sarvas, J. [1987] : Basic Mathematical and Electromagnetic Concepts of the Biomagnetic Inverse Problem. Phys. Med. Biol. Vol.32, no.1 : 11-22. [104] Silberstein, R. B. [1994] : Neuromodulation of neocortical dynamics. In : Neocortical dynamics and human EEG rhythms. ed. P. L. Nuñez. Oxford University Press. [105] Silberstein, R. B. [1994] : Steady-State Visually Evoked Potentials, Brain Resonances, and Cognitive Processes In : Neocortical dynamics and human EEG rhythms. ed. P. L. Nuñez. Oxford University Press. [106] Smith, C. U. M. [1982] : El cerebro. Sexta ed. Alianza Universidad Madrid. [107] Somogyi, P. ; Tamás, G. ; Lujan, R., Buhl, E. [1998] : Salient features of synaptic organisation in the cerebral cortex. Brain research reviews, 26 : 113-135. [108] Temam, R. [1998] : Infinite-Dimensional Dynamical Systems. 2 ed. Springer Verlag, New York, Berlin, Heidelberg. [109] Tijonov A.N., Goncharsky A.V. [1987] : Problemas mal planteados de las ciencias naturales. (Editorial de la Universidad Estatal de Moscú). [110] Tikhonov, V. S. [1985] : Differential Equations. Springer Verlag. Berlin , Heidelberg. 140 [111] Troy, W. C. [1978] : The bifurcation of periodic solutions in the Hodgkin-Huxley equations. Quart. Appl. Math., Vol. 36, 73-83. [112] Tyson, J. J. ; Keener, J. P. [1988] : Singular Perturbation Theory of Traveling Waves in Excitable Medic (a review). Physica.D 32 : 327-361. [113] van Rotterdam, A., Lópes da Silva, F. H., van den Ende, J., Viergeuer, M. A., Hermans, A. J. [1982] : A model of the spaticaltemporal characteristics of the alpha rhytm. Bull. Math. Biol. 4e : 283-305. [114] Wang, X. J. ; Rinzel, J.[1993] : Spindle rhythmicity in the reticularis thalami nucleus : synchronization among mutually inhibitory neurons. Neuroscience. 53 : 899-904. [115] Wang, X. J. [1994] : Multiple dynamical modes of thalamic relay neurons : Rhythmic bursting and intermittent phase-locking. Neuroscience. Vol. 59, no.1, 21-31. [116] Weiss, T. F. [1996] : Celular biophysics, Vol. 1, Transport. MIT Press, Cambridge, MA. [117] Weiss, T. F. [1996] : Celular biophysics, Vol. 2, Electrical properties. MIT Press, Cambridge, MA. [118] Widrow, B., Hoff, M. [1960] : Adaptative Switching Circuits IREWESCON Convention Record, Part 4, 96-104. [119] Wilson, H. R., Cowan, J. D. [1972] : Excitatory and inhibitory interaction in localized populations of model neurons. Biophys. Journal 12. 1-24. [120] Wilson, H. R., Cowan, J. D. [1973] : A mathematical theory of the functional dynamics of cortical and thalamic nervous tissue. Kybernetik 13. 13-80. [121] Wright, J.J. ; Liley, T. J. [1996] : Dynamics of the Brain at Global and Microscopic scales : Neural Networks and the EEG, Behavioral and the brain sciences. 19 : 285-320. 141