Download INTRODUCCIÓN

Document related concepts

Red neuronal artificial wikipedia , lookup

Perceptrón wikipedia , lookup

Teoría hebbiana wikipedia , lookup

Red neuronal cuántica wikipedia , lookup

Conexionismo wikipedia , lookup

Transcript
Introducción

Calculabilidad clásica


Computación celular



Autómatas finitos, máquina de Turing
Autómatas celulares, redes neuronales.
Reseña histórica
RNAs



Neurona biológica, aprendizaje humano
Definición
Propiedades
Calculabilidad clásica

Objetivo de un Ingeniero en Informática:


Resolver los problemas de los usuarios, utilizando siempre que se
pueda y sea adecuado un ordenador.
Requerimientos



Modelos de computación en los que basar la solución a los
problemas.
Máquinas que implementen dichos modelos o algún tipo de
ejecución equivalente a los mismos.
Información sobre los tipos de problemas que se pueden resolver
con los modelos.
Calculabilidad clásica

Máquinas de estados finitos

Modelos de computación centralizados, compuestos de elementos
de memoria, proceso y entrada/salida.

K

M
Calculabilidad clásica

Autómatas finitos determinísticos



Equivalentes a los no determinísticos
Reconocen los lenguajes regulares.
Máquina de Turing determinística




Equivalente a la no determinística.
Resuelve problemas que puedan formalizarse en base a funciones
µ-recursivas.
Teorema de Church-Turing: Máquina de Turing = Algoritmo
Problema de la parada
Computación celular

Principios:




Simplicidad de la unidades de proceso
Paralelismo inmenso
Localidad del conocimiento.
Red de autómatas
M1
M3
M1
M1
M1
M3
M2
Computación celular

Autómatas celulares



Idéntico modelo de computación en todas las células
Grafo de conexión regular: rejilla.
Redes neuronales


Cada arco del grafo tiene un peso asociado.
El modelo de computación se basa en la suma ponderada de las
entradas y en una función de activación.
N
xi (t  1)  fi ( wijxj (t ))
j 1


Resuelven el problema de la parada. Pero no el de la estabilidad.
Equivalentes a la máquina de Turing si limitamos las unidades de
proceso a un número finito.
Reseña histórica

McCulloch y Pitts publican “A logical calculus of the ideas
immanent in nervous activity” (1943)

Hebb diseña la primera ley de aprendizaje (1949)

Rosenblatt presenta el perceptrón(1962)

Problema XOR. Crisis en neurocomputación (1969)

Kohonen y Carpenter trabajan en redes autoorganizadas y
memorias asociativas(70s)
Reseña histórica

Hopfield presenta su red(80s)

Perceptrón multicapa con regla delta generalizada.
Solución al problema XOR(1986)

Afianzamiento de la neurocomputación




IEEE International Conference on Neural Networks(1987)
Neural Networks(1988)
Neural Computation(1989)
IEEE Transaction on Neural Networks(1990)
Neurona biológica

Morfología:





Dendritas
Soma
Axón
Sinapsis
Fisiología:




Pesos sinápticos
Potencial sináptico
Umbral
Activación/Inhibición
(Despolarización)
Neurona artificial




Pesos sinápticos: matriz
de pesos W
Potencial sináptico:
entrada Xn
Umbral: 
Activación/Inhibición:
función de activación o
de transferencia f
N
Yi  fi ( wij x j   )
j 1
Redes Neuronales

Red Neuronal:


Modelos computacionales paralelos con unidades de proceso
(neuronas) adaptativas y masivamente interconectadas.
Características:




El procesamiento de la información lo realizan elementos simples
(unidades de proceso o neuronas artificiales)
Los resultados se transmiten entre neuronas a través de sus
conexiones sinápticas (localidad)
Los enlaces tienen un peso (peso sináptico) que potencia/atenúa la
señal emitida.
Cada unidad de proceso aplica una función de activación a la
entrada para determinar la salida
Aprendizaje humano



El cerebro se puede contemplar como un ordenador
complejo, no lineal y paralelo, en el que las neuronas están
organizadas según la tarea a ejecutar.
La experiencia juega un papel importante en el
conocimiento adquirido por los humanos.
Las RNA se parecen al cerebro en dos aspectos:


La red adquiere el conocimiento mediante un proceso de
aprendizaje (aprendizaje mediante ejemplos)
Los pesos de las conexiones entre las unidades de proceso se
utilizan para almacenar el conocimiento.
Definiendo modelos neuronales

Arquitectura: estructura de la red o patrón de conexión
entre sus elementos.
Definiendo modelos neuronales

Algoritmo de entrenamiento o aprendizaje


procedimiento para determinar los pesos de las conexiones.
Tipos:



Supervisado: un experto asesora el entrenamiento.
(Xi,Yi) i = 1,..,p
Por refuerzo: premios y castigos.
(Xi, Ri) i = 1,..,p
No supervisado: sin información sobre los resultados
(Xi) i = 1,..,p
Definiendo modelos neuronales

Dinámica de la computación


Evolución de las unidades de proceso desde que se les
da una entrada hasta que generan la salida calculada
para dicha entrada.
La salida la determina la función de activación:



Neuronas binarias: función paso
Neuronas bipolares: función signo
Neuronas continuas: funciones logística y tangente hiperbólica.
Propiedades de RNA






No linealidad.
Permiten la representación de aplicaciones o correspondencias entre
las entradas y salidas.
Adaptabilidad: Acomodan sus pesos sinápticos a los cambios del
entorno.
Información contextual: El conocimiento viene representado por el
estado de activación de la red neuronal. Cada neurona está afectada
potencialmente por la actividad global de las otras neuronas de la red.
Tolerancia a fallos: Si una neurona o un enlace de la red neuronal son
dañados, la respuesta de la red probablemente no quedará afectada.
Por otra parte, una red es capaz de reconocer señales de entrada
diferentes a las señales entrenadas cuando difieren moderadamente.
Implementación VLSI: utilizadas en el reconocimiento de patrones,
procesamiento de señales y control en tiempo real.