Download red neuronal de impulsos continuos por frecuencia de propagación
Document related concepts
Transcript
RED NEURONAL DE IMPULSOS CONTINUOS POR FRECUENCIA DE PROPAGACIÓN Y PERIODO DE AISLAMIENTO CONTINOUS PULSE NEURAL NETWORK CPNN INTRODUCCIÓN. La Red Neuronal Continua de Impulsos, es en esencia una (Spiking Neural Network) a la que he aplicado algunas modificaciones con la finalidad de cumplir las expectativas de plasticidad y estabilidad del aprendizaje. Tiene la capacidad de soportar una multiplicidad de entradas y salidas simultaneas, la capacidad de mantener una múltiple-direccionalidad ordenada en la propagación dentro de los límites de frecuencias establecido, y adquiere el carácter de continuidad, al precisar de la existencia ininterrumpida de un flujo de impulsos para el establecimiento y sustento de representaciones a modo de superposición de patrones. Estas propiedades se consiguen mediante la implicación de dos nuevas premisas: El establecimiento de un tiempo universal en la red, lo que nos permite la emulación del computo de todos los procesos en forma simultanea, y la definición de tres posibles estados para todas y cada una de las neuronas. La codificación de la información se basa en frecuencias comprendidas dentro de un intervalo. En una visión general, la red se encarga de dividir mediante construcciones estructurales en forma ramificada de sinapsis, fraccionando las frecuencias del flujo de información que provienen de las diferentes capas de entrada. Como resultado, las frecuencias de impulsos tienden a una un nivel baja de frecuencia, nivel que permite la interrelación de frecuencias provenientes de las capas de entradas que queramos asociar dentro de un entorno compartido. Finalmente, predisponemos un camino para un flujo de impulsos hacia las capas de salida que deberemos de ajustar. Las neuronas, prescinden del concepto de umbral, y su participación se centra en tres usos principalmente relacionados con su estado: procesador, constructor y excitación o impulso. EL TIEMPO UNIVERSAL Para poder ejercer el computo de todos los procesos de forma simultanea, es necesario definir un tiempo universal para toda la red, de manera que podamos agrupar procesos por intervalos unitarios de tiempo, obteniendo el carácter de simultaneidad que necesitamos, esencial en esta tipología de redes. LAS NEURONAS. Las neuronas, (procesador, constructor y replicador), trabajan en la premisa de tres estados: 3. El Periodo de aislamiento. Espacio de tiempo que transcurre desde que una neurona ha sido excitada hasta su nueva disponibilidad. 1. El Periodo de disponibilidad o masa. Espacio de tiempo durante el cual, una neurona se haya cargada y disponible. 2. La excitación o impulso. LAS SINAPSIS Las sinapsis son los conductores de los impulsos. Tiene la capacidad de permitir la propagación en ambas direcciones de forma alternada, de disminuir la tensión mediante la divergencia por ramificación en dos más sinapsis, así como de incrementar la tensión de en un proceso inverso, por la convergencia de dos o más sinapsis. Combinada con los tres estados neuronales, las sinapsis se convierten en vías de información y proceso para la información, siendo la propagación y la información partes de una misma cosa. MËTODO DE CONSTRUCCIÓN SINÁPTICA. Definimos el espacio tridimensional para la ubicación de sinapsis y neuronas, lo que nos permitirá en todo momento tener en cuenta la ubicación de los impulsos, la intensidad y frecuencia de los mismos, las sinapsis y su relación con las neuronas, esencial para el cálculo que precisa el aprendizaje. Las neuronas, durante su periodo de disponibilidad, ejercen un efecto de atracción en su proximidad como si de un potente imán se tratase, ejerciendo a la vez una función de masa, que llama a la recepción de los impulsos que se propagan por las sinapsis que a ella se hayan enlazadas. El efecto de atracción que ejercen las neuronas sobre las sinapsis que se hayan en su proximidad soportando elevadas intensidades como resultado de haber una propagación con una alta frecuencia, influye en el crecimiento de las sinapsis hacia la neurona en cuestión, terminando por conexionarse. Se trata de un proceso lento de fijación por repetición, por lo que deducir de un primer computo una conexión en busca de una agilidad en el aprendizaje, nos puede hacer incurrir en el error de predisponer lo que no es evidente. Es la repetición, la que otorga validez a la conexión realizada. Cuando raramente, una sinapsis recibe de forma repetida impulsos simultáneos en dirección opuesta, esta tiende a la desconexión, Digo raramente, porque aunque se trata de una red multidireccional, la propagación es siempre evolutiva, como veremos más adelante por la incidencia del tercer estado neuronal, pero cabe la posibilidad de que anexionen y coexistan repetidas veces dos propagaciones opuestas en una misma sinapsis al mismo tiempo, por lo que estaríamos hablando de una mala conexión establecida y propiciaríamos la supresión. PROPIEDADES DERIVADAS DE LOS ESTADOS DE LAS NEURONAS: 1 - El periodo de Disponibilidad o Masa. Como acabamos de ver, este periodo es esencial para la construcción de conexiones sinápticas que tiendan a reducir la intensidad de frecuencia de propagación en la red. 2 - El estado de excitación o impulso, es el encargado de replicar los impulsos, perpetuando la propagación de los mismos. Carece de control de umbral para la activación del modo en que se realiza en otras redes neuronales. 3 - El periodo de Aislamiento, corresponde a la invisibilidad que suponen las neuronas para los impulsos que se propagan en la red durante un breve espacio de tiempo. Espacio de tiempo que transcurre hasta que se encuentran nuevamente disponibles. El efecto de llamada o masa de las neuronas que se hallan en disponibilidad haciendo que los impulsos se dirijan hacia ellas por las sinapsis enlazadas, repercute indirectamente en las neuronas que se encuentran en periodo de aislamiento, como si de una interrupción temporal del circuito se tratase. Del periodo de aislamiento se desprenden varias características que condicionan la propagación y definen la forma en que la representación de la información es alcanzada dentro de la red. Esta son principalmente: 1 – La propagación de un impulso siempre es en dirección opuesta a su origen, quedando totalmente vetada la retropropagación directa. Esto implica en que el carácter de la información en propagaciones de flujos en bloque, siempre se conserva en su evolución. Del mismo modo, también se conservará el carácter aquella información que se pudiese propagar en dirección opuesta dentro de redes duales. Del entrecruzamiento de dichas propagaciones, se verá influenciada la ampliación de la red en una estructura sináptica que permitirá la coexistencia e influencia de ambas propagaciones . 2 - El aislamiento lineal y el aislamiento paralelo en la propagación. El primero, establece una restricción a la propagación en elevadas frecuencias de impulsos, elevadas frecuencias que por restricción, se traducen en un incremento de intensidad, obligando a la red a crecer en amplitud mediante ramificaciones sinápticas. El segundo, hace que los flujos de información que se propagan en bloque, mantengan una cierta linealidad, conservando el carácter del flujo de la información en su proceso de propagación, y estableciendo la representación, más en la profundidad evolutiva alcanzada, que en un entorno local ampliado, como ocurre en el primero. 3 – Tendencia al sincronismo estructural. El límite físico que supone la determinación de un tiempo de aislamiento para el conjunto de neuronas de una red, obliga al sistema a sincronizarse siempre en base al este a la hora de edificar sus construcciones. 4 – La continuidad y el sustento de las representaciones (principio de movimiento continuo). Las estructuras neuronales en sus diferentes estados combinada con las vías sinápticas edificadas, mantienen un orden preestablecido en su mínima intensidad de propagación. Cualquier mino ración en la frecuencia por debajo de este mínimo del intervalo de tiempo, que coincide con el tiempo que dura el periodo de aislamiento, supondrá la perdida del orden estructural de estado de las neuronas, de forma que ya no incidiría del mismo modo para nuevas propagaciones, lo que supone una cambio en la capacidad de representatividad, y por consiguiente, el principio del caos. 5 – Principio de autonomía estructural. Para cada par de neuronas, el periodo de aislamiento hace que entre si mismas, simbolicen una red donde las sinapsis que se reciben son las entradas y los impulsos que propagan, las salidas, como si de una minired independiente se tratase. Como veremos más adelante, esta propiedad es esencial para el crecimiento de nuestra red. INTERRUPCIÓN SINAPTICA: ¿Como repercuten los tres estados de las neuronas en la propagación y clasificación de impulsos? La incidencia de los estados de las neuronas que participan en un proceso de propagación, es determinante para que la sinapsis actúe a modo de interruptor. Si tenemos unas neuronas disponibles y otras aisladas, como se muestran en la imagen, podemos apreciar que el simple cambio de orden de estado por la variación de frecuencia, determinará la dirección que tomará propagación i el nivel de intensidad que adquirirá. El Estado de cada neurona, tratándose de flujos continuos, viene determinado directamente por su antecesor y condicionará de igual modo a su predecesor. La perdida de continuidad, rompería el orden estructural alcanzado. De igual modo y como resultado de la simultaneidad, todos los estados se hayan condicionados también de forma indirecta por la totalidad de las interacciones neurosinapticas que se dan en la totalidad de la red. La siguiente imagen recoge un cuadro que refleja cuatro niveles de frecuencia, y donde podemos ver como interactua la masificación junto a el aislamiento para el establecimiento del camino a seguir por un impulso, y como un incremento de frecuencia, se traduce en un incremento de tensión en la sinapsis, incremento que se minorizará mediante la ramificación sináptica o en su caso, mediante la inserción de neuronas, ENTRADAS: LA PERCEPCCION. La percepción se inicia en la capa de entada a modo de matriz de neuronas, donde cada una de ella emite intensidades en base a la información que proyecta hacia la red. Una vez la información profundiza en la red, el concepto de matriz desaparece.. FRECUENCIAS E INTERVALOS DE PROPAGACIÓN. Las frecuencias de propagación se establecen todas dentro de un intervalo de máximos y mínimos, siendo el primero, el límite físico que marcan las distancias sináptica entre neuronas a la propagación, y el segundo, coincide con el intervalo de tiempo que hemos definido para el periodo de aislamiento, esencial para el sustento de las representaciones. De este modo, la red adquiere el carácter de continuidad al precisar de un impulso mínimo con origen en todas las neuronas de entrada, incluso cuando se encuentren en reposo aparente. La carencia del mismo, eliminaría el orden estructural de los estados de las neuronas, orden encargado de mantener las representaciones alcanzadas e influenciar en nuevas propagaciones. Finalmente, la red establece en profundidad nexos de unión de todos los flujos simultáneos, de forma que unos influyen directa o indirectamente en el comportamiento de unos y otros, donde cada propagación condiciona de forma relativa las propagaciones de todos los otros. LA REPRESENTACIÓN MEMORIA, REPRESENTACIÓN Y CONCRECIÓN La representación o memoria, es la propagación del flujo en una estructura dentro de un orden estructural. Es este camino construido, el que permite la propagación evolutiva de un flujo de información dentro de la red, donde la incidencia del mismo es soportada en niveles de baja intensidad, por la estructura en que se propaga, estructura que será capaz de soportar a la vez, el flujo de informaciones similares mediante la ampliación del potencial de propagación en solo algunas de sus ramificaciones. Finalmente, es el orden estructural construido, el que permite dicha propagación, pero hasta que esta no se produce, no podemos hablar de representación, pues lo que tenemos es una estructura potencial de múltiples representaciones similares. He de mencionar que la participación indirecta del resto de percepciones del sistema, hace que aunque una percepción en un canal sea exactamente igual en su origen, el resto de percepciones hacen que la propagación de dicha percepción nunca alcance una propagación y una representación exactamente igual. La concreción de las representaciones, es la claridad en como la red percibe estas. Las representaciones que, teniendo una gran amplitud dentro de la red, carecen de claridad, poseen el carácter asociativo para el sustento de la totalidad, siendo representaciones difusas en apariencia pero certeras en funcionalidad. La claridad se consigue cuando la red es capaz de reducir todas las frecuencias e intensidades para flujos similares de información. Imagino que existe una relación directa entre la concreción que deseemos alcanzar y el numero de neuronas y sinapsis que precisemos para tal fin, pero no tengo modo de comprobarlo. Aunque parezca decepcionante, no es aconsejable buscar la concreción absoluta para este tipo de redes, pues parece que es imposible. La representación de la información queda superpuesta para una amplia similitud de flujos de información, mediante la construcciones sinápticas y neuronales, minorizando la intensidad del flujo para todo el conjunto posible de percepciones similares. De este modo, la red neurona se estructura por similitud de flujos de información, donde hallaremos que en una desfragmentacion total y profunda, todos se hayan relacionado. CONSOLIDACIÓN DE FIJACIÓN SINAPTICAS EN UN ESTADO DE REPOSO PROGRAMADO. Es necesario establecer periodos de reposo pare el sistema que le permitan consolidad las estructuras antiguas con la nuevas, gracias a los impulsos en mínima frecuencias de las entradas, consolidaremos aquellas estructuras construidas a raíz de las percepciones con las ya consolidadas, mediante la consecución de una propagación relativamente plana en las sumas de estructuras. Con este proceso, se intenta prevenir de los excesivos cambios estructurales que se producen cada dia ocasionando elevadas tensiones, cambios que acabarian por cambiar la predisposición de los estados de las neuronas para las propagación de nuevos flujos de información, lo que supondría un cambio no esperado en la representación. LA INSERCIÓN. EL CRECIMIENTO VOLUMETRICO. MAYOR CONCRECCION. Si incrementamos el volumen o número de neuronas en un canal de entrada o ampliamos la pluralidad de la información en las mismas, originaremos un incremento en la tensión y la frecuencia soportada en la red, por lo que precisaremos de un método de crecimiento que sea potencial y que permita reducir la tensión, ya sea por la construcción sináptica como hemos venido viendo, o como el caso que les presento a continuación, por la inserción de neuronas en la zona donde detectamos niveles elevados de tensión. De esta forma, conseguimos una mejora en la conductividad mediante la ampliación del potencial de representación de la red, ampliación que se traducirá en una mejora estructural de las representaciones. Todo esto es posible gracias a el principio de independencia estructural, que nos permite la evolución progresiva de un sistema mediante la inserción de neuronas, ya que en vez de estar realizando un cambio estructural, lo que realmente estamos llevando a cabo con la inserción, es una ampliación potencial de las estructuras. SALIDAS: LA PROYECCION. LLAMADA I/O SALIDAS DE ACCESO A LA MEMÓRIA. La salida, se pueden leer de forma individual o colectiva mediante matrices que permitan adaptar la información al medio, cuando percibimos que se trata de un bloque de información el que fluye en bloque hacia una capa de salida. El hecho de que se exista una simultaneidad de procesos para todo el conjunto del sistema, hace que las incidencias de las salidas en el medio sean reconocida la autopercepción por las capas de entrada, de forma que la red, también aprende de forma automática como una salida modifica una entrada. Aprendizaje que quedará reflejado en la ampliación de las construcciones existentes y asociado por la simultaneidad de procesos internos, enlazando las entradas con las salidas externas. Si pensamos en un sistema de carácter dual donde las entradas y salidas participan de dos medios diferentes, la red puede llegar a construir relaciones y nexos entre ambos, y las respuestas que se obtienen del contraste de las entradas y salidas de ambos medios pueden permitir establecer propagaciones entre los distintos medios de forma que las repuestas de uno satisfagan las demandas del otro. SISTEMA DUAL Un sistema dual, es aquel en que podemos clasificar sus entradas en dos grupos claramente definidos. Un primer grupo que abarcaría todas las entradas obtenidas de percepciones con origen en un medio externo, y un segundo grupo o motor, que serian todas las entradas y salidas de origen interno, generadas por un sistema programado para la alimentación continua de la red. ESQUEMA BASICO DE UN SISTEMA DUAL INICIACIÓN. La iniciación, es el proceso determinante para el éxito de la evolución de nuestra red neuronal. Antes de iniciar una red neuronal, debemos tener presente como queremos que sea todo nuestro sistema, el numero de canales de entradas y salidas que deseamos alcanzar, la amplitud de los mismos, con la finalidad de definir una estructura lineal primitiva que nos permita evolucionar hacia la red deseada. La Imagen adjunta, muestra una hipotética red dual simple donde ambos medios se hayan enlazados por una sola sinapsis. ARQUITECTURA DE CAPA DIFUSA EN LOS SISTEMAS DUALES. La capa difusa, no es más que el mar donde convergen y evolucionan todas las entradas y salidas. El carácter difuso de la red viene dado por la imposibilidad de representar la misma como una multiplicidad de capas en forma de matrices. Cuando observamos una imagen visual de una red neuronal de impulsos continuos, no vemos más que una bonita fotografía de un sinfín de ramificaciones carentes de sentido aparente. Necesitamos observar el proceso de propagación continuo para reconocer como la participación de los diferentes estados de las neuronas, combinados con la estructura sináptica, comienza a tener sentido. MOTOR DE IMPULSOS. El Motor de nuestro sistema consistirá un toda una serie de generadores de entradas, que actuaran siempre dentro de los intervalos de frecuencia establecidos como mínimos y máximos. APRENDIZAJE SUPERVISADO Programaremos mecánicamente, asociando las salidas internas obtenidas como repuestas a los diferentes generadores. En función a estas, haremos que los generadores de impulsos incrementen o decrementen su intensidad. La supervisión es esencial para conseguir una correcta asociación. Del mismo modo que la red relaciona la incidencia de sus salidas mediante la percepción de las mismas en el entorno exterior, sucederá lo mismo con la incidencia que deje nuestra actuación de supervisión, donde seremos nosotros mismos los que relacionaremos mecánicamente aquellas salidas para que modifiquen las entradas. Por otro lado, deberemos guiar de igual modo la asociación de entradas y salidas en el entorno. Tengamos presente que las modificaciones internas serán a la vez, asociaciones externas. Una vez el proceso tiene nuestra aprobación, procedemos a automatizar todo el sistema, adquiriendo así la independencia deseada. SOLIDIFICACIÓN Debido al gran volumen de procesos que lleva el aprendizaje de este tipo de sistemas, podemos suprimir todo el proceso de aprendizaje solidificando la estructura y conseguir una aceleración sustancial y una reducción del volumen de información que recogeremos en un Neuroma. NEUROMA Es el Mapa Neuronal y sináptico resultante del aprendizaje. Se trata de una base de datos donde quedan recogidas las Neuronas junto a su estado neuronal, los enlaces sinápticos construidos entre ellas a modo de tiempos de espera sinápticos, que presupondrán la distancia sináptica entre las neuronas, prescindiendo así de la orientación espacial. Esta base de datos permitirá la ínter-actuación de todas las percepciones en el nivel de concreción que hayamos estimado, prescindiendo del carácter evolutivo de la red como resultado de su entrenamiento. INVOLUCIÓN O REINICIO. La madurez alcanzada por el sistema lo hará aparentemente versátil, aunque la evolución de todo el entorno, lo volverá obsoleto para el cometido que fue diseñado, del mismo modo que ocurre con toda la tecnología que creamos. Para poder adaptarlo nuevamente a su tiempo, deberíamos reiniciarlo a un punto inicial o un punto de partida medio y completar un nuevo proceso de aprendizaje que partirá desde un nuevo escalón de la espiral de la evolución cultural. El resultado será un sistema adaptado a su tiempo, que sin duda, guardará cierta similitud con el sistema inicial. EL PERIODO DE TIEMPO DE AISLAMIENTO ISOLATION TIME El periodo de Aislamiento es el tiempo que destina una neurona en restablecer su diferencial de potencial y mostrarse nuevamente disponible. Durante el tiempo en que se produce el restablecimiento de potencial de acción en las neuronas mediante la acumulación de iones a ambos lados de la membrana plasmática, tal y como describe el potencial de Nemst, las neuronas permanecen impasibles a los impulsos eléctricos que reciben de la red. Estos pocos milisegundos necesarios para alcanzar nuevamente el diferencial de potencial por las neuronas, son la base principal del diseño de una red neuronal de impulsos continuos e intensidad de propagación (scnn-ip). De esta forma, la red neuronal de impulsos continuos queda limitada en su velocidad de transferencia por el periodo de tiempo de aislamiento, siendo las limitaciones que pueden suponer las distancia sináptica y la velocidad de conducción del axón, como parte del medio para hallar la representación de las entradas y posibilitar la reproducción de las salidas. En este supuesto, la limitación obligada a la replica por el periodo de aislamiento, se traducirá en un límite a la frecuencia máxima de trabajo de las neurona, limitación que se debería poder medir, si medimos la alteración que se origina a modo de onda electromagnética, siendo la frecuencia de onda resultante igual a la frecuencia de trabajo de la neurona. Gracias a que los ciclos de trabajo de las neuronas, siendo iguales en frecuencia cuando trabajan conjuntamente en proximidad y que difícilmente pueden coexistir en en una misma fase como resultado de las distancias sinápticas, podemos mediante el uso de un equipo de electroencefalografia, efectuar lecturas de frecuencias de ondas y establecer así, cual seria la frecuencia máxima de trabajo que pueden alcanzar las neuronas, así como las diferentes frecuencias para los diferentes estados de trabajo de la red. Bien podría ser en este supuesto, que la velocidad máxima de trabajo de las neuronas coincidiera con la frecuencia de ondas de tipo Gamma de 25 a 100 Hz, lectura de onda que obtenemos de una red neuronal estresada, siendo de igual modo, la frecuencia mínima que aseguraría el sustento de estructuras sinápticas, las lecturas de ondas de tipo Delta con frecuencias de entre 1 a 3Hz. Agradecería gratamente si hay algún científico que con medios, pudiera comprobar la correlación que posiblemente exista entra las ondas de tipo Gamma y la frecuencia resultante del límite temporal que supone el restablecimiento del diferencial de potencial, pues no pediría tal ayuda si no fuese por la falta de medios o conocimiento de tal comparación. El resultado, sea cual fuese, resultaría gratificante para la evolución de mi teoría sobre una red neuronal de impulsos continuos e intensidad de propagación (Continous Pulse Neural Network-PI). SUPERPOSICIÓN Y CONTRAPOSICIÓN Según la definición más generalizada, la superposición es la relación que establecen dos o más elementos situados en un mismo plano con su resultado. En una Red Neuronal de Impulsos Continuos basada en Intensidad de Propagación, podemos distinguir dos tipos de superposiciones en base a la relación que establece el periodo de tiempo de aislamiento en la propagación de la información: 1 . Una superposición paralela, donde los bloques de información que se propagan en la red mantienen directa o indirectamente una relación paralela originada a partir de la condición que establece el periodo de tiempo de aislamiento en su propagación, haciendo que las unidades individuales que constituyen cada bloque de información, mantenga su relación paralela en todo momento, al haberse originado esta de forma simultanea. 2. Una superposición lineal. Consiste en la relación que se genera como resultado de la propagación de información de modo secuencial. El periodo de tiempo de aislamiento relaciona de este modo, cada unidad de información con su unidad inmediata anterior. De la combinación de ambos tipos de superposiciones, tenemos que una superposición en una CPNN-PI puede ser convergente o divergente. En base a la estructura construida, la dirección de la propagación, y la combinación de su relación paralela y lineal, estableceremos la naturaleza convergente o divergente de dichos procesos de superposición, siendo divergente en procesos de propagación para la representación e identificación de las entradas, y convergente en procesos de propagación para la construcción y montaje de las salidas. Si nos fijamos en la información inicial obtenida en las entradas de una red neuronal, convendrán conmigo que dicha información, al ser el punto de partida para la representación de las entradas, ejerce a la vez de límite estructural para la red con respecto a la totalidad de información disponible, información que habrá sido simplificada y discriminada por el uso del tipo de sensor que hayamos montado para obtenerla. De este modo, las representaciones construidas quedaran condicionadas para la representación e identificación de entradas, del mismo modo, la estructura alcanzada por la red, condicionará y limitará la construcción y montaje de las salidas. Es este limite establecido por la naturaleza de la estructura de la información obtenida a partir del medio, lo que denomino contraposición directa. La Contraposición directa es, simplificando, el límite natural establecido a partir de la información obtenida del medio para la representación de las entradas y construcción o montaje de las salidas. Esta contraposición hace que nuestra red se vea limitada en todo momento para la representación e identificación de aquellas entradas que resulten totalmente nuevas. Este problema lo podemos mitigar mediante el uso de redes auto alimentadas basadas en la inclusión de flujos de auto percepción, redes que elaboran un ordenamiento estructural como resultado de las tendencias que establece el uso combinado de las nuevas entradas con la auto percepción de salidas consensuadas, salidas montadas a partir de representaciones ya adquiridas, obteniendo una contraposición dual combinada. Esta contraposición dual combinada, permitirá a la red rellenar el vacío que supone la percepción de nuevas entradas, obteniendo una red plástica para la adquisición y representación de entradas totalmente nuevas, que de otro modo, nunca hubiesen hallado ni identificación ni representación. Finalmente resaltar que es la conexión de dos o más sinapsis en una misma neurona dentro del marco de una red neuronal, el causante de la superposición y contraposición. Cada vez que se efectúa una propagación de impulsos siguiendo una evolución convergente o divergente, se esta llevando a cabo una contraposición y/o una superposición. LA INTELIGENCIA, LA PERCEPCIÓN AUMENTADA Y LA ITERACIÓN EN UNA CPNN-PI Inteligencia: (Lectura Interior) La inteligencia es el total del volumen de información que participa en un proceso reflexivo de auto percepción dado en una cpnn-pi. La información generada por la salida destinada a ser inteligencia abarca desde la nitidez de la información hasta la abstracción. En base a esta, la inteligencia adquiere diferentes definiciones e interpretaciones. La Percepción Aumentada. La percepción aumentada es la suma interna que se realiza entre las salidas y entradas simultaneas que se hayan directamente relacionadas, donde una parte de la información obtenida en la salida se asocia complementariamente a la entrada, aumentándose en su mismo plano superpuesto y estableciendose una iteración condicional infinita en la red. La percepción aumentada, condiciona las entradas en base a las demandas del sistema, i origina una tendencia en el aprendizaje dirigida a potenciar el sistema progresivamente conforme al orden estructural inicial preestablecido. Iteración. La iteración en una cpnn-pi se origina dentro de la percepción aumentada cuando transformamos en auto entrada parte de una salida, modificando el posicionamiento estructural de la red que determina la construcción de la propia salida. Demandas Motoras. Es el motor un sistema de IA basado en una CPNN-PI y consisten en un sistema de entradas programadas que inciden en la red a modo de intensidad dentro de un intervalo. Dichas entradas, condicionan todos los procesos que se dan en la red directa e indirectamente. En función a las respuestas esperadas y obtenidas, programaremos la variación de las intensidades de demandas motoras dentro de un modelo de aprendizaje supervisado, pudiendo automatizar el proceso una vez ajustado. La Totalización Temporal de la Percepción Aumentada. (Proceso de Reflexión). Cuando tenemos un elevado volumen de información procedente de la salida destinada a inteligencia, se origina una supresión temporal de la percepción dentro del proceso de percepción aumentada producida por la resistencia que ofrece el elevado volumen de información. En un proceso con niveles normalizados de información, las salidas modifican continuamente la posición del sistema dentro del medio, corrigiendo de este modo la diferencia existente entre la percepción real y la percepción aumentada. Si el propósito de igualación no se aproxima, la percepción aumentada tiende a totalizarse con el incremento de información que se origina en la salida destinada a inteligencia. Dicho incremento crea en la red una tendencia a modificar su estado, adaptando la predisposición de la red a la entrada, variando de este modo, la construcción de las demandas motoras a modo de la salida. El conocimiento. Es la información aprendida y representada en la red la que permite otorgar un valor añadido a las entradas a modo de conocimiento. La coincidencia en un proceso de percepción aumentada de la información generada por la red con la información obtenida en las entradas, hará que la información aumentada adquiera una mayor o menor importancia dentro de la red como resultado de la incidencia de la propagación de dicha información. Punto de atención. En una red de superposición, cualquier punto, grupo de neuronas o estructura se haya relacionado directa e indirectamente con la totalidad del posicionamiento de la red como resultado de su estado de superposición. Resultado de los procesos de totalización dados en la percepción aumentada, el punto de atención se adapta a las demandas mediante el cambio continuo del posicionamiento de la red. De este modo, la percepción aumentada origina un proceso de focalización otorgando mayor valor a la parte de entrada que se ajusta a la información generada por las demandas motoras, demandas que a modo de salida, son a la vez una entrada esperada por la red en su busca por la repetición de todo un proceso secuencial aprendido. Aprendizaje profundo por similitud y diferencial. La representación de las entradas dentro de una cpnn-pi, son ordenadas en base a su similitud y representadas en función a sus diferencias. Mediante la información aumentada que proporciona un valor parcial a la información, la red mantiene el orden por similitud a la vez que aplica una ampliación por sus diferencias. La consolidación de la representación. La Consolidación de las representaciones se obtiene por la repetición de las salidas dentro de la Percepción Aumentada durante un periodo largo de tiempo donde se suprime las entradas externas, permitiendo que la red se consolide en las ampliaciones de las representaciones alcanzadas. La red reduce progresivamente la tensión que se origina en la repetición de una salida dada por una representación temporal construida de la misma, permitiendo que la información se adquiera y se consolide en la profundidad de la red mediante el aumento de las sinapsis, mejorando la eficiencia de dicha propagación a la vez que se amplía su representación diferencial. Les dejo con un Efecto Óptico dado en la Percepción Aumentada. Si observan detenidamente la imagen GIF del título durante 30 segundos y seguidamente observan su propia mano, podrán comprobar de primera mano los efectos de la supuesta Percepción Aumentada y observar como la tendencia que ha originado la observación prolongada en nosotros mismos, continua actuando durante unos pocos segundos hasta restablecer el posicionamiento. PREPOSICIÓN & ITERACIÓN Las Redes Neuronales recurrentes, son una buena solución cuando buscamos que nuestra red se ajuste y adapte correctamente a la información en tiempo real, obteniendo salidas actualizadas al momento en base a las entradas. Pero si pretendemos que nuestro sistema vaya más allá de lo que supone operar en tiempo real, anticipándose al momento, deberemos hallar un método que le permita trabajar tanto en tiempo real, como en tiempo anticipado y tiempo pasado. Este método es la Iteración, que consiste en la construcción de puentes que permiten que salidas originadas como respuesta a una entrada, actúen a modo de auto-percepción dentro de un proceso de asociación que se origina en el espacio definido para la Percepción Aumentada, quedando así finalmente establecida la iteración. Como ya cité en artículos anteriores, los procesos dados dentro de la Percepción Aumentada, son los que construyen el expresionismo de las entradas obtenidas del medio, aumentando el valor las mismas en base a la coincidencia con representaciones similares alcanzadas con anterioridad. Resultado de ello, tenemos un sistema de ordenamiento estructural por tendencia, capaz de establecer la ampliación y complementación del conocimiento adquirido mediante nuevas asociaciones constructivas entre representaciones distantes mediante procesos iterativos, con capacidad para anticiparse a las entradas una vez originadas, lo que le permite ajustar las salidas en previsión a las mismas, un sistema capaz de proporcionar valor a la información, y finalmente, un sistema con el potencial para dotar de valor al tiempo en sí, diferenciando percepciones y representaciones adquiridas u originadas tanto en tiempo real, como en diferentes periodos de tiempo. Solo me cabe recalcar que, para que una iteración en una red neuronal funcione correctamente, es condición esencia que la velocidad de la construcción y variación de información de las respuestas en modo salidas destinadas a auto percepción, sea más rápida que la variación de la información proveniente de las entradas del medio dadas en tiempo real. Los sistemas de redes neuronales que desarrollen la capacidad para anticiparse al momento, se volverán excepcionales respecto a si mismos como resultado del valor de certeza, autenticidad y realidad, que obtienen dentro del proceso de Percepción Aumentada, cuando coincide la información de las entrada proveniente del medio con la información construida anticipadamente y destinada a auto entrada. CUANTIFICACIÓN EN UNA CPNN-PI. En una Red Neuronal de Pulso Continuo ordenada en base a la Intensidad de la Propagación, la cuantificación es la relación que permite la superposición horizontal del posicionamiento del estado de todas las neuronas y sinapsis en un mismo plano. La interpretación de la información, al tratarse de un efecto de superposición, solo podrán ser reconocidas desde el propio sistema o en su caso, desde otros sistemas similares. Mediante la cuantificación, el motor interno permite crear una demanda abstracta compuesta por un amplio abanico de posibilidades que, en función de las entradas y sus similitudes, el sistema fusionará unas y otras, en base a la intensidad de la propagación y la simultaneidad de los dos planos cuantificados. El resultado es una simbiosis cuantificada que mejora la propagación de aquellas entradas en las que se hallen coincidencias estructurales con la información generada. Esto permite además, que la suma "aumento" de dicha información, dote un valor añadido a modo de reconocimiento y/o sentido de la misma para el sistema. Finalmente, el proceso iterativo del sistema, será el encargado de hacer converger las entradas que se ajusten parcialmente a la demanda, mediante el uso de salidas capaces de modificar o alterar el origen de las mismas, consiguiendo de este modo, una optimización en el encuentro de similitudes entre entradas y demandas, mejorando así la propagación a la vez que se reducen las cargas de intensidad que ocasiona la información no complementada en el sistema. La cuantificación se origina como resultado de la superposición de información propiciada por las confluencias varias conexiones sinápticas en una misma neurona dentro de las redes neuronales. La cuantificación es principalmente horizontal como resultado de la relación establecida por la simultaneidad y el periodo de aislamiento, aunque también existe una relación vertical cuantificable entre su momento anterior y momento posterior. Para conseguir que el sistema que trabaje en modo cuantificado, precisaremos de un método que nos permita cuantificar el total de posicionamientos neuronales en todo momento sin que estas pierdan a la vez su independencia. Este método lo proporciona el periodo de aislamiento. Consiste en la interrupción temporal realizada por todas las neuronas del sistema, una barrera a la propagación que se establece durante un breve espacio de tiempo, lo que permite que la información quede totalmente relacionada con la totalidad del sistema (cuantificada) a la vez que conserva su independencia. Más o menos, el resultado viene a ser como la relación que se establece en Física entre la energía y el límite universal "C" a su propagación. De este modo, la información es representada por la arquitectura de la estructura y generada por una propagación cambiante en función a la totalidad del sistema.