Download red neuronal de impulsos continuos por frecuencia de propagación

Document related concepts

Red neuronal de impulsos wikipedia , lookup

Sinapsis wikipedia , lookup

Neurona wikipedia , lookup

Plasticidad neuronal wikipedia , lookup

Red neuronal prealimentada wikipedia , lookup

Transcript
RED NEURONAL DE IMPULSOS CONTINUOS
POR FRECUENCIA DE PROPAGACIÓN
Y PERIODO DE AISLAMIENTO
CONTINOUS PULSE NEURAL NETWORK
CPNN
INTRODUCCIÓN.
La Red Neuronal Continua de Impulsos, es en esencia una (Spiking Neural Network) a
la que he aplicado algunas modificaciones con la finalidad de cumplir las expectativas
de plasticidad y estabilidad del aprendizaje.
Tiene la capacidad de soportar una multiplicidad de entradas y salidas simultaneas, la
capacidad de mantener una múltiple-direccionalidad ordenada en la propagación dentro
de los límites de frecuencias establecido, y adquiere el carácter de continuidad, al
precisar de la existencia ininterrumpida de un flujo de impulsos para el establecimiento
y sustento de representaciones a modo de superposición de patrones.
Estas propiedades se consiguen mediante la implicación de dos nuevas premisas: El
establecimiento de un tiempo universal en la red, lo que nos permite la emulación del
computo de todos los procesos en forma simultanea, y la definición de tres posibles
estados para todas y cada una de las neuronas.
La codificación de la información se basa en frecuencias comprendidas dentro de un
intervalo.
En una visión general, la red se encarga de dividir mediante construcciones estructurales
en forma ramificada de sinapsis, fraccionando las frecuencias del flujo de información
que provienen de las diferentes capas de entrada. Como resultado, las frecuencias de
impulsos tienden a una un nivel baja de frecuencia, nivel que permite la interrelación de
frecuencias provenientes de las capas de entradas que queramos asociar dentro de un
entorno compartido. Finalmente, predisponemos un camino para un flujo de impulsos
hacia las capas de salida que deberemos de ajustar.
Las neuronas, prescinden del concepto de umbral, y su participación se centra en tres
usos principalmente relacionados con su estado: procesador, constructor y excitación o
impulso.
EL TIEMPO UNIVERSAL
Para poder ejercer el computo de todos los procesos de forma simultanea, es
necesario definir un tiempo universal para toda la red, de manera que podamos agrupar
procesos por intervalos unitarios de tiempo, obteniendo el carácter de simultaneidad que
necesitamos, esencial en esta tipología de redes.
LAS NEURONAS.
Las neuronas, (procesador, constructor y replicador), trabajan en la premisa de tres
estados:
3. El Periodo de aislamiento. Espacio de tiempo que transcurre desde que una neurona
ha sido excitada hasta su nueva disponibilidad.
1. El Periodo de disponibilidad o masa. Espacio de tiempo durante el cual, una
neurona se haya cargada y disponible.
2. La excitación o impulso.
LAS SINAPSIS
Las sinapsis son los conductores de los impulsos. Tiene la capacidad de permitir la
propagación en ambas direcciones de forma alternada, de disminuir la tensión mediante
la divergencia por ramificación en dos más sinapsis, así como de incrementar la tensión
de en un proceso inverso, por la convergencia de dos o más sinapsis. Combinada con los
tres estados neuronales, las sinapsis se convierten en vías de información y proceso para
la información, siendo la propagación y la información partes de una misma cosa.
MËTODO DE CONSTRUCCIÓN SINÁPTICA.
Definimos el espacio tridimensional para la ubicación de sinapsis y neuronas, lo que nos
permitirá en todo momento tener en cuenta la ubicación de los impulsos, la intensidad y
frecuencia de los mismos, las sinapsis y su relación con las neuronas, esencial para el
cálculo que precisa el aprendizaje.
Las neuronas, durante su periodo de disponibilidad, ejercen un efecto de atracción en su
proximidad como si de un potente imán se tratase, ejerciendo a la vez una función de
masa, que llama a la recepción de los impulsos que se propagan por las sinapsis que a
ella se hayan enlazadas. El efecto de atracción que ejercen las neuronas sobre las
sinapsis que se hayan en su proximidad soportando elevadas intensidades como
resultado de haber una propagación con una alta frecuencia, influye en el crecimiento de
las sinapsis hacia la neurona en cuestión, terminando por conexionarse. Se trata de un
proceso lento de fijación por repetición, por lo que deducir de un primer computo una
conexión en busca de una agilidad en el aprendizaje, nos puede hacer incurrir en el error
de predisponer lo que no es evidente. Es la repetición, la que otorga validez a la
conexión realizada.
Cuando raramente, una sinapsis recibe de forma repetida impulsos simultáneos en
dirección opuesta, esta tiende a la desconexión, Digo raramente, porque aunque se trata
de una red multidireccional, la propagación es siempre evolutiva, como veremos más
adelante por la incidencia del tercer estado neuronal, pero cabe la posibilidad de que
anexionen y coexistan repetidas veces dos propagaciones opuestas en una misma
sinapsis al mismo tiempo, por lo que estaríamos hablando de una mala conexión
establecida y propiciaríamos la supresión.
PROPIEDADES DERIVADAS DE LOS ESTADOS DE LAS NEURONAS:
1 - El periodo de Disponibilidad o Masa. Como acabamos de ver, este periodo es
esencial para la construcción de conexiones sinápticas que tiendan a reducir la
intensidad de frecuencia de propagación en la red.
2 - El estado de excitación o impulso, es el encargado de replicar los impulsos,
perpetuando la propagación de los mismos. Carece de control de umbral para la
activación del modo en que se realiza en otras redes neuronales.
3 - El periodo de Aislamiento, corresponde a la invisibilidad que suponen las neuronas
para los impulsos que se propagan en la red durante un breve espacio de tiempo.
Espacio de tiempo que transcurre hasta que se encuentran nuevamente disponibles.
El efecto de llamada o masa de las neuronas que se hallan en disponibilidad haciendo
que los impulsos se dirijan hacia ellas por las sinapsis enlazadas, repercute
indirectamente en las neuronas que se encuentran en periodo de aislamiento, como si de
una interrupción temporal del circuito se tratase.
Del periodo de aislamiento se desprenden varias características que condicionan la
propagación y definen la forma en que la representación de la información es alcanzada
dentro de la red.
Esta son principalmente:
1 – La propagación de un impulso siempre es en dirección opuesta a su origen,
quedando totalmente vetada la retropropagación directa. Esto implica en que el carácter
de la información en propagaciones de flujos en bloque, siempre se conserva en su
evolución. Del mismo modo, también se conservará el carácter aquella información que
se pudiese propagar en dirección opuesta dentro de redes duales. Del entrecruzamiento
de dichas propagaciones, se verá influenciada la ampliación de la red en una estructura
sináptica que permitirá la coexistencia e influencia de ambas propagaciones .
2 - El aislamiento lineal y el aislamiento paralelo en la propagación.
El primero, establece una restricción a la propagación en elevadas
frecuencias de impulsos, elevadas frecuencias que por restricción, se traducen en un
incremento de intensidad, obligando a la red a crecer en amplitud mediante
ramificaciones sinápticas.
El segundo, hace que los flujos de información que se propagan en
bloque, mantengan una cierta linealidad, conservando el carácter del flujo de la
información en su proceso de propagación, y estableciendo la representación, más en la
profundidad evolutiva alcanzada, que en un entorno local ampliado, como ocurre en el
primero.
3 – Tendencia al sincronismo estructural. El límite físico que supone la
determinación de un tiempo de aislamiento para el conjunto de neuronas de una red,
obliga al sistema a sincronizarse siempre en base al este a la hora de edificar sus
construcciones.
4 – La continuidad y el sustento de las representaciones (principio de
movimiento continuo). Las estructuras neuronales en sus diferentes estados combinada
con las vías sinápticas edificadas, mantienen un orden preestablecido en su mínima
intensidad de propagación. Cualquier mino ración en la frecuencia por debajo de este
mínimo del intervalo de tiempo, que coincide con el tiempo que dura el periodo de
aislamiento, supondrá la perdida del orden estructural de estado de las neuronas, de
forma que ya no incidiría del mismo modo para nuevas propagaciones, lo que supone
una cambio en la capacidad de representatividad, y por consiguiente, el principio del
caos.
5 – Principio de autonomía estructural. Para cada par de neuronas, el periodo de
aislamiento hace que entre si mismas, simbolicen una red donde las sinapsis que se
reciben son las entradas y los impulsos que propagan, las salidas, como si de una minired independiente se tratase. Como veremos más adelante, esta propiedad es esencial
para el crecimiento de nuestra red.
INTERRUPCIÓN SINAPTICA:
¿Como repercuten los tres estados de las neuronas en la propagación y clasificación de
impulsos?
La incidencia de los estados de las neuronas que participan en un proceso de
propagación, es determinante para que la sinapsis actúe a modo de interruptor. Si
tenemos unas neuronas disponibles y otras aisladas, como se muestran en la imagen,
podemos apreciar que el simple cambio de orden de estado por la variación de
frecuencia, determinará la dirección que tomará propagación i el nivel de intensidad que
adquirirá. El Estado de cada neurona, tratándose de flujos continuos, viene determinado
directamente por su antecesor y condicionará de igual modo a su predecesor. La perdida
de continuidad, rompería el orden estructural alcanzado.
De igual modo y como resultado de la simultaneidad, todos los estados se hayan
condicionados también de forma indirecta por la totalidad de las interacciones neurosinapticas que se dan en la totalidad de la red.
La siguiente imagen recoge un cuadro que refleja cuatro niveles de frecuencia, y donde
podemos ver como interactua la masificación junto a el aislamiento para el
establecimiento del camino a seguir por un impulso, y como un incremento de
frecuencia, se traduce en un incremento de tensión en la sinapsis, incremento que se
minorizará mediante la ramificación sináptica o en su caso, mediante la inserción de
neuronas,
ENTRADAS:
LA PERCEPCCION.
La percepción se inicia en la capa de entada a modo de matriz de neuronas, donde cada
una de ella emite intensidades en base a la información que proyecta hacia la red. Una
vez la información profundiza en la red, el concepto de matriz desaparece..
FRECUENCIAS E INTERVALOS DE PROPAGACIÓN.
Las frecuencias de propagación se establecen todas dentro de un intervalo de máximos y
mínimos, siendo el primero, el límite físico que marcan las distancias sináptica entre
neuronas a la propagación, y el segundo, coincide con el intervalo de tiempo que hemos
definido para el periodo de aislamiento, esencial para el sustento de las
representaciones. De este modo, la red adquiere el carácter de continuidad al precisar de
un impulso mínimo con origen en todas las neuronas de entrada, incluso cuando se
encuentren en reposo aparente. La carencia del mismo, eliminaría el orden estructural de
los estados de las neuronas, orden encargado de mantener las representaciones
alcanzadas e influenciar en nuevas propagaciones.
Finalmente, la red establece en profundidad nexos de unión de todos los flujos
simultáneos, de forma que unos influyen directa o indirectamente en el comportamiento
de unos y otros, donde cada propagación condiciona de forma relativa las propagaciones
de todos los otros.
LA REPRESENTACIÓN
MEMORIA, REPRESENTACIÓN Y CONCRECIÓN
La representación o memoria, es la propagación del flujo en una estructura dentro de un
orden estructural. Es este camino construido, el que permite la propagación evolutiva de
un flujo de información dentro de la red, donde la incidencia del mismo es soportada en
niveles de baja intensidad, por la estructura en que se propaga, estructura que será capaz
de soportar a la vez, el flujo de informaciones similares mediante la ampliación del
potencial de propagación en solo algunas de sus ramificaciones. Finalmente, es el orden
estructural construido, el que permite dicha propagación, pero hasta que esta no se
produce, no podemos hablar de representación, pues lo que tenemos es una estructura
potencial de múltiples representaciones similares.
He de mencionar que la participación indirecta del resto de percepciones del sistema,
hace que aunque una percepción en un canal sea exactamente igual en su origen, el resto
de percepciones hacen que la propagación de dicha percepción nunca alcance una
propagación y una representación exactamente igual.
La concreción de las representaciones, es la claridad en como la red percibe estas. Las
representaciones que, teniendo una gran amplitud dentro de la red, carecen de claridad,
poseen el carácter asociativo para el sustento de la totalidad, siendo representaciones
difusas en apariencia pero certeras en funcionalidad. La claridad se consigue cuando la
red es capaz de reducir todas las frecuencias e intensidades para flujos similares de
información. Imagino que existe una relación directa entre la concreción que deseemos
alcanzar y el numero de neuronas y sinapsis que precisemos para tal fin, pero no tengo
modo de comprobarlo.
Aunque parezca decepcionante, no es aconsejable buscar la concreción absoluta para
este tipo de redes, pues parece que es imposible.
La representación de la información queda superpuesta para una amplia similitud de
flujos de información, mediante la construcciones sinápticas y neuronales, minorizando
la intensidad del flujo para todo el conjunto posible de percepciones similares. De este
modo, la red neurona se estructura por similitud de flujos de información, donde
hallaremos que en una desfragmentacion total y profunda, todos se hayan relacionado.
CONSOLIDACIÓN DE FIJACIÓN SINAPTICAS EN UN ESTADO DE REPOSO
PROGRAMADO.
Es necesario establecer periodos de reposo pare el sistema que le permitan consolidad
las estructuras antiguas con la nuevas, gracias a los impulsos en mínima frecuencias de
las entradas, consolidaremos aquellas estructuras construidas a raíz de las percepciones
con las ya consolidadas, mediante la consecución de una propagación relativamente
plana en las sumas de estructuras. Con este proceso, se intenta prevenir de los excesivos
cambios estructurales que se producen cada dia ocasionando elevadas tensiones,
cambios que acabarian por cambiar la predisposición de los estados de las neuronas para
las propagación de nuevos flujos de información, lo que supondría un cambio no
esperado en la representación.
LA INSERCIÓN. EL CRECIMIENTO VOLUMETRICO.
MAYOR CONCRECCION.
Si incrementamos el volumen o número de neuronas en un canal de entrada o
ampliamos la pluralidad de la información en las mismas, originaremos un incremento
en la tensión y la frecuencia soportada en la red, por lo que precisaremos de un método
de crecimiento que sea potencial y que permita reducir la tensión, ya sea por la
construcción sináptica como hemos venido viendo, o como el caso que les presento a
continuación, por la inserción de neuronas en la zona donde detectamos niveles
elevados de tensión. De esta forma, conseguimos una mejora en la conductividad
mediante la ampliación del potencial de representación de la red, ampliación que se
traducirá en una mejora estructural de las representaciones.
Todo esto es posible gracias a el principio de independencia estructural, que nos permite
la evolución progresiva de un sistema mediante la inserción de neuronas, ya que en vez
de estar realizando un cambio estructural, lo que realmente estamos llevando a cabo con
la inserción, es una ampliación potencial de las estructuras.
SALIDAS: LA PROYECCION.
LLAMADA I/O SALIDAS DE ACCESO A LA MEMÓRIA.
La salida, se pueden leer de forma individual o colectiva mediante matrices que
permitan adaptar la información al medio, cuando percibimos que se trata de un bloque
de información el que fluye en bloque hacia una capa de salida.
El hecho de que se exista una simultaneidad de procesos para todo el conjunto del
sistema, hace que las incidencias de las salidas en el medio sean reconocida la autopercepción por las capas de entrada, de forma que la red, también aprende de forma
automática como una salida modifica una entrada. Aprendizaje que quedará reflejado en
la ampliación de las construcciones existentes y asociado por la simultaneidad de
procesos internos, enlazando las entradas con las salidas externas.
Si pensamos en un sistema de carácter dual donde las entradas y salidas participan de
dos medios diferentes, la red puede llegar a construir relaciones y nexos entre ambos, y
las respuestas que se obtienen del contraste de las entradas y salidas de ambos medios
pueden permitir establecer propagaciones entre los distintos medios de forma que las
repuestas de uno satisfagan las demandas del otro.
SISTEMA DUAL
Un sistema dual, es aquel en que podemos clasificar sus entradas en dos grupos
claramente definidos. Un primer grupo que abarcaría todas las entradas obtenidas de
percepciones con origen en un medio externo, y un segundo grupo o motor, que serian
todas las entradas y salidas de origen interno, generadas por un sistema programado
para la alimentación continua de la red.
ESQUEMA BASICO DE UN SISTEMA DUAL
INICIACIÓN.
La iniciación, es el proceso determinante para el éxito de la evolución de nuestra red
neuronal.
Antes de iniciar una red neuronal, debemos tener presente como queremos que sea todo
nuestro sistema, el numero de canales de entradas y salidas que deseamos alcanzar, la
amplitud de los mismos, con la finalidad de definir una estructura lineal primitiva que
nos permita evolucionar hacia la red deseada.
La Imagen adjunta, muestra una hipotética red dual simple donde ambos medios se
hayan enlazados por una sola sinapsis.
ARQUITECTURA DE CAPA DIFUSA EN LOS SISTEMAS DUALES.
La capa difusa, no es más que el mar donde convergen y evolucionan todas las entradas
y salidas. El carácter difuso de la red viene dado por la imposibilidad de representar la
misma como una multiplicidad de capas en forma de matrices.
Cuando observamos una imagen visual de una red neuronal de impulsos continuos, no
vemos más que una bonita fotografía de un sinfín de ramificaciones carentes de sentido
aparente. Necesitamos observar el proceso de propagación continuo para reconocer
como la participación de los diferentes estados de las neuronas, combinados con la
estructura sináptica, comienza a tener sentido.
MOTOR DE IMPULSOS.
El Motor de nuestro sistema consistirá un toda una serie de generadores de entradas, que
actuaran siempre dentro de los intervalos de frecuencia establecidos como mínimos y
máximos.
APRENDIZAJE SUPERVISADO
Programaremos mecánicamente, asociando las salidas internas obtenidas como
repuestas a los diferentes generadores. En función a estas, haremos que los generadores
de impulsos incrementen o decrementen su intensidad. La supervisión es esencial para
conseguir una correcta asociación. Del mismo modo que la red relaciona la incidencia
de sus salidas mediante la percepción de las mismas en el entorno exterior, sucederá lo
mismo con la incidencia que deje nuestra actuación de supervisión, donde seremos
nosotros mismos los que relacionaremos mecánicamente aquellas salidas para que
modifiquen las entradas. Por otro lado, deberemos guiar de igual modo la asociación de
entradas y salidas en el entorno. Tengamos presente que las modificaciones internas
serán a la vez, asociaciones externas. Una vez el proceso tiene nuestra aprobación,
procedemos a automatizar todo el sistema, adquiriendo así la independencia deseada.
SOLIDIFICACIÓN
Debido al gran volumen de procesos que lleva el aprendizaje de este tipo de sistemas,
podemos suprimir todo el proceso de aprendizaje solidificando la estructura y conseguir
una aceleración sustancial y una reducción del volumen de información que
recogeremos en un Neuroma.
NEUROMA
Es el Mapa Neuronal y sináptico resultante del aprendizaje. Se trata de una base de
datos donde quedan recogidas las Neuronas junto a su estado neuronal, los enlaces
sinápticos construidos entre ellas a modo de tiempos de espera sinápticos, que
presupondrán la distancia sináptica entre las neuronas, prescindiendo así de la
orientación espacial. Esta base de datos permitirá la ínter-actuación de todas las
percepciones en el nivel de concreción que hayamos estimado, prescindiendo del
carácter evolutivo de la red como resultado de su entrenamiento.
INVOLUCIÓN O REINICIO.
La madurez alcanzada por el sistema lo hará aparentemente versátil, aunque la
evolución de todo el entorno, lo volverá obsoleto para el cometido que fue diseñado, del
mismo modo que ocurre con toda la tecnología que creamos.
Para poder adaptarlo nuevamente a su tiempo, deberíamos reiniciarlo a un punto inicial
o un punto de partida medio y completar un nuevo proceso de aprendizaje que partirá
desde un nuevo escalón de la espiral de la evolución cultural. El resultado será un
sistema adaptado a su tiempo, que sin duda, guardará cierta similitud con el sistema
inicial.
EL PERIODO DE TIEMPO DE AISLAMIENTO
ISOLATION TIME
El periodo de Aislamiento es el tiempo que destina una neurona en
restablecer su diferencial de potencial y mostrarse nuevamente disponible.
Durante el tiempo en que se produce el restablecimiento de potencial de
acción en las neuronas mediante la acumulación de iones a ambos lados de la membrana
plasmática, tal y como describe el potencial de Nemst, las neuronas permanecen
impasibles a los impulsos eléctricos que reciben de la red.
Estos pocos milisegundos necesarios para alcanzar nuevamente el
diferencial de potencial por las neuronas, son la base principal del diseño de una red
neuronal de impulsos continuos e intensidad de propagación (scnn-ip). De esta forma, la
red neuronal de impulsos continuos queda limitada en su velocidad de transferencia por
el periodo de tiempo de aislamiento, siendo las limitaciones que pueden suponer las
distancia sináptica y la velocidad de conducción del axón, como parte del medio para
hallar la representación de las entradas y posibilitar la reproducción de las salidas.
En este supuesto, la limitación obligada a la replica por el periodo de
aislamiento, se traducirá en un límite a la frecuencia máxima de trabajo de las neurona,
limitación que se debería poder medir, si medimos la alteración que se origina a modo
de onda electromagnética, siendo la frecuencia de onda resultante igual a la frecuencia
de trabajo de la neurona. Gracias a que los ciclos de trabajo de las neuronas, siendo
iguales en frecuencia cuando trabajan conjuntamente en proximidad y que difícilmente
pueden coexistir en en una misma fase como resultado de las distancias sinápticas,
podemos mediante el uso de un equipo de electroencefalografia, efectuar lecturas de
frecuencias de ondas y establecer así, cual seria la frecuencia máxima de trabajo que
pueden alcanzar las neuronas, así como las diferentes frecuencias para los diferentes
estados de trabajo de la red.
Bien podría ser en este supuesto, que la velocidad máxima de trabajo de las
neuronas coincidiera con la frecuencia de ondas de tipo Gamma de 25 a 100 Hz, lectura
de onda que obtenemos de una red neuronal estresada, siendo de igual modo, la
frecuencia mínima que aseguraría el sustento de estructuras sinápticas, las lecturas de
ondas de tipo Delta con frecuencias de entre 1 a 3Hz.
Agradecería gratamente si hay algún científico que con medios, pudiera
comprobar la correlación que posiblemente exista entra las ondas de tipo Gamma y la
frecuencia resultante del límite temporal que supone el restablecimiento del diferencial
de potencial, pues no pediría tal ayuda si no fuese por la falta de medios o conocimiento
de tal comparación. El resultado, sea cual fuese, resultaría gratificante para la evolución
de mi teoría sobre una red neuronal de impulsos continuos e intensidad de propagación
(Continous Pulse Neural Network-PI).
SUPERPOSICIÓN Y CONTRAPOSICIÓN
Según la definición más generalizada, la superposición es la relación que establecen
dos o más elementos situados en un mismo plano con su resultado.
En una Red Neuronal de Impulsos Continuos basada en Intensidad de Propagación,
podemos distinguir dos tipos de superposiciones en base a la relación que establece el
periodo de tiempo de aislamiento en la propagación de la información:
1 . Una superposición paralela, donde los bloques de información que se propagan en la
red mantienen directa o indirectamente una relación paralela originada a partir de la
condición que establece el periodo de tiempo de aislamiento en su propagación,
haciendo que las unidades individuales que constituyen cada bloque de información,
mantenga su relación paralela en todo momento, al haberse originado esta de forma
simultanea.
2. Una superposición lineal. Consiste en la relación que se genera como resultado de la
propagación de información de modo secuencial. El periodo de tiempo de aislamiento
relaciona de este modo, cada unidad de información con su unidad inmediata anterior.
De la combinación de ambos tipos de superposiciones, tenemos que una
superposición en una CPNN-PI puede ser convergente o divergente. En base a la
estructura construida, la dirección de la propagación, y la combinación de su relación
paralela y lineal, estableceremos la naturaleza convergente o divergente de dichos
procesos de superposición, siendo divergente en procesos de propagación para la
representación e identificación de las entradas, y convergente en procesos de
propagación para la construcción y montaje de las salidas.
Si nos fijamos en la información inicial obtenida en las entradas de una red
neuronal, convendrán conmigo que dicha información, al ser el punto de partida para la
representación de las entradas, ejerce a la vez de límite estructural para la red con
respecto a la totalidad de información disponible, información que habrá sido
simplificada y discriminada por el uso del tipo de sensor que hayamos montado para
obtenerla. De este modo, las representaciones construidas quedaran condicionadas para
la representación e identificación de entradas, del mismo modo, la estructura alcanzada
por la red, condicionará y limitará la construcción y montaje de las salidas. Es este
limite establecido por la naturaleza de la estructura de la información obtenida a partir
del medio, lo que denomino contraposición directa.
La Contraposición directa es, simplificando, el límite natural establecido a partir de
la información obtenida del medio para la representación de las entradas y construcción
o montaje de las salidas. Esta contraposición hace que nuestra red se vea limitada en
todo momento para la representación e identificación de aquellas entradas que resulten
totalmente nuevas.
Este problema lo podemos mitigar mediante el uso de redes auto alimentadas
basadas en la inclusión de flujos de auto percepción, redes que elaboran un
ordenamiento estructural como resultado de las tendencias que establece el uso
combinado de las nuevas entradas con la auto percepción de salidas consensuadas,
salidas montadas a partir de representaciones ya adquiridas, obteniendo una
contraposición dual combinada.
Esta contraposición dual combinada, permitirá a la red rellenar el vacío que supone
la percepción de nuevas entradas, obteniendo una red plástica para la adquisición y
representación de entradas totalmente nuevas, que de otro modo, nunca hubiesen
hallado ni identificación ni representación.
Finalmente resaltar que es la conexión de dos o más sinapsis en una misma
neurona dentro del marco de una red neuronal, el causante de la superposición y
contraposición. Cada vez que se efectúa una propagación de impulsos siguiendo una
evolución convergente o divergente, se esta llevando a cabo una contraposición y/o una
superposición.
LA INTELIGENCIA, LA PERCEPCIÓN AUMENTADA Y LA ITERACIÓN
EN UNA CPNN-PI
Inteligencia: (Lectura Interior)
La inteligencia es el total del volumen de información que participa en un proceso
reflexivo de auto percepción dado en una cpnn-pi.
La información generada por la salida destinada a ser inteligencia abarca desde la
nitidez de la información hasta la abstracción. En base a esta, la inteligencia adquiere
diferentes definiciones e interpretaciones.
La Percepción Aumentada.
La percepción aumentada es la suma interna que se realiza entre las salidas y
entradas simultaneas que se hayan directamente relacionadas, donde una parte de la
información obtenida en la salida se asocia complementariamente a la entrada,
aumentándose en su mismo plano superpuesto y estableciendose una iteración
condicional infinita en la red.
La percepción aumentada, condiciona las entradas en base a las demandas del sistema,
i origina una tendencia en el aprendizaje dirigida a potenciar el sistema
progresivamente conforme al orden estructural inicial preestablecido.
Iteración.
La iteración en una cpnn-pi se origina dentro de la percepción aumentada cuando
transformamos en auto entrada parte de una salida, modificando el posicionamiento
estructural de la red que determina la construcción de la propia salida.
Demandas Motoras.
Es el motor un sistema de IA basado en una CPNN-PI y consisten en un sistema de
entradas programadas que inciden en la red a modo de intensidad dentro de un
intervalo.
Dichas entradas, condicionan todos los procesos que se dan en la red directa e
indirectamente. En función a las respuestas esperadas y obtenidas, programaremos la
variación de las intensidades de demandas motoras dentro de un modelo de aprendizaje
supervisado, pudiendo automatizar el proceso una vez ajustado.
La Totalización Temporal de la Percepción Aumentada. (Proceso de Reflexión).
Cuando tenemos un elevado volumen de información procedente de la salida
destinada a inteligencia, se origina una supresión temporal de la percepción dentro
del proceso de percepción aumentada producida por la resistencia que ofrece el
elevado volumen de información.
En un proceso con niveles normalizados de información, las salidas modifican
continuamente la posición del sistema dentro del medio, corrigiendo de este modo la
diferencia existente entre la percepción real y la percepción aumentada. Si el
propósito de igualación no se aproxima, la percepción aumentada tiende a totalizarse
con el incremento de información que se origina en la salida destinada a inteligencia.
Dicho incremento crea en la red una tendencia a modificar su estado, adaptando la
predisposición de la red a la entrada, variando de este modo, la construcción de las
demandas motoras a modo de la salida.
El conocimiento.
Es la información aprendida y representada en la red la que permite otorgar un valor
añadido a las entradas a modo de conocimiento.
La coincidencia en un proceso de percepción aumentada de la información generada
por la red con la información obtenida en las entradas, hará que la información
aumentada adquiera una mayor o menor importancia dentro de la red como
resultado de la incidencia de la propagación de dicha información.
Punto de atención.
En una red de superposición, cualquier punto, grupo de neuronas o estructura se
haya relacionado directa e indirectamente con la totalidad del posicionamiento de la
red como resultado de su estado de superposición. Resultado de los procesos de
totalización dados en la percepción aumentada, el punto de atención se adapta a las
demandas mediante el cambio continuo del posicionamiento de la red.
De este modo, la percepción aumentada origina un proceso de focalización otorgando
mayor valor a la parte de entrada que se ajusta a la información generada por las
demandas motoras, demandas que a modo de salida, son a la vez una entrada esperada
por la red en su busca por la repetición de todo un proceso secuencial aprendido.
Aprendizaje profundo por similitud y diferencial.
La representación de las entradas dentro de una cpnn-pi, son ordenadas en base a su
similitud y representadas en función a sus diferencias.
Mediante la información aumentada que proporciona un valor parcial a la
información, la red mantiene el orden por similitud a la vez que aplica una ampliación
por sus diferencias.
La consolidación de la representación.
La Consolidación de las representaciones se obtiene por la repetición de las salidas
dentro de la Percepción Aumentada durante un periodo largo de tiempo donde se
suprime las entradas externas, permitiendo que la red se consolide en las
ampliaciones de las representaciones alcanzadas.
La red reduce progresivamente la tensión que se origina en la repetición de una salida
dada por una representación temporal construida de la misma, permitiendo que la
información se adquiera y se consolide en la profundidad de la red mediante el
aumento de las sinapsis, mejorando la eficiencia de dicha propagación a la vez que se
amplía su representación diferencial.
Les dejo con un Efecto Óptico dado en la Percepción Aumentada.
Si observan detenidamente la imagen GIF del título durante 30 segundos y
seguidamente observan su propia mano, podrán comprobar de primera mano los
efectos de la supuesta Percepción Aumentada y observar como la tendencia que ha
originado la observación prolongada en nosotros mismos, continua actuando durante
unos pocos segundos hasta restablecer el posicionamiento.
PREPOSICIÓN & ITERACIÓN
Las Redes Neuronales recurrentes, son una buena solución cuando buscamos
que nuestra red se ajuste y adapte correctamente a la información en tiempo real,
obteniendo salidas actualizadas al momento en base a las entradas.
Pero si pretendemos que nuestro sistema vaya más allá de lo que supone operar
en tiempo real, anticipándose al momento, deberemos hallar un método que le permita
trabajar tanto en tiempo real, como en tiempo anticipado y tiempo pasado. Este método
es la Iteración, que consiste en la construcción de puentes que permiten que salidas
originadas como respuesta a una entrada, actúen a modo de auto-percepción dentro de
un proceso de asociación que se origina en el espacio definido para la Percepción
Aumentada, quedando así finalmente establecida la iteración.
Como ya cité en artículos anteriores, los procesos dados dentro de la Percepción
Aumentada, son los que construyen el expresionismo de las entradas obtenidas del
medio, aumentando el valor las mismas en base a la coincidencia con representaciones
similares alcanzadas con anterioridad. Resultado de ello, tenemos un sistema de
ordenamiento estructural por tendencia, capaz de establecer la ampliación y
complementación del conocimiento adquirido mediante nuevas asociaciones
constructivas entre representaciones distantes mediante procesos iterativos, con
capacidad para anticiparse a las entradas una vez originadas, lo que le permite ajustar
las salidas en previsión a las mismas, un sistema capaz de proporcionar valor a la
información, y finalmente, un sistema con el potencial para dotar de valor al tiempo en
sí, diferenciando percepciones y representaciones adquiridas u originadas tanto en
tiempo real, como en diferentes periodos de tiempo.
Solo me cabe recalcar que, para que una iteración en una red neuronal funcione
correctamente, es condición esencia que la velocidad de la construcción y variación de
información de las respuestas en modo salidas destinadas a auto percepción, sea más
rápida que la variación de la información proveniente de las entradas del medio dadas
en tiempo real.
Los sistemas de redes neuronales que desarrollen la capacidad para anticiparse al
momento, se volverán excepcionales respecto a si mismos como resultado del valor de
certeza, autenticidad y realidad, que obtienen dentro del proceso de Percepción
Aumentada, cuando coincide la información de las entrada proveniente del medio con la
información construida anticipadamente y destinada a auto entrada.
CUANTIFICACIÓN EN UNA CPNN-PI.
En una Red Neuronal de Pulso Continuo ordenada en base a la Intensidad de la
Propagación, la cuantificación es la relación que permite la superposición horizontal del
posicionamiento del estado de todas las neuronas y sinapsis en un mismo plano. La
interpretación de la información, al tratarse de un efecto de superposición, solo podrán
ser reconocidas desde el propio sistema o en su caso, desde otros sistemas similares.
Mediante la cuantificación, el motor interno permite crear una demanda
abstracta compuesta por un amplio abanico de posibilidades que, en función de las
entradas y sus similitudes, el sistema fusionará unas y otras, en base a la intensidad de la
propagación y la simultaneidad de los dos planos cuantificados. El resultado es una
simbiosis cuantificada que mejora la propagación de aquellas entradas en las que se
hallen coincidencias estructurales con la información generada. Esto permite además,
que la suma "aumento" de dicha información, dote un valor añadido a modo de
reconocimiento y/o sentido de la misma para el sistema.
Finalmente, el proceso iterativo del sistema, será el encargado de hacer
converger las entradas que se ajusten parcialmente a la demanda, mediante el uso de
salidas capaces de modificar o alterar el origen de las mismas, consiguiendo de este
modo, una optimización en el encuentro de similitudes entre entradas y demandas,
mejorando así la propagación a la vez que se reducen las cargas de intensidad que
ocasiona la información no complementada en el sistema.
La cuantificación se origina como resultado de la superposición de información
propiciada por las confluencias varias conexiones sinápticas en una misma neurona
dentro de las redes neuronales.
La cuantificación es principalmente horizontal como resultado de la relación
establecida por la simultaneidad y el periodo de aislamiento, aunque también existe una
relación vertical cuantificable entre su momento anterior y momento posterior. Para
conseguir que el sistema que trabaje en modo cuantificado, precisaremos de un método
que nos permita cuantificar el total de posicionamientos neuronales en todo momento
sin que estas pierdan a la vez su independencia. Este método lo proporciona el periodo
de aislamiento. Consiste en la interrupción temporal realizada por todas las neuronas
del sistema, una barrera a la propagación que se establece durante un breve espacio de
tiempo, lo que permite que la información quede totalmente relacionada con la totalidad
del sistema (cuantificada) a la vez que conserva su independencia. Más o menos, el
resultado viene a ser como la relación que se establece en Física entre la energía y el
límite universal "C" a su propagación. De este modo, la información es representada por
la arquitectura de la estructura y generada por una propagación cambiante en función a
la totalidad del sistema.