Download Capítulo 6

Document related concepts

Red neuronal artificial wikipedia , lookup

Neuroph wikipedia , lookup

Red neuronal estocástica wikipedia , lookup

Deep Dream wikipedia , lookup

Red neuronal cuántica wikipedia , lookup

Transcript
Aplicaciones de las
Redes Neuronales Artificilaes
Dr. Héctor Allende
Areas de Aplicación
• Areas donde se aplican ANN:
–
–
–
–
–
–
–
–
Ingeniería ( Control, Robótica, Visión )
Ciencias de la computación.
Neurofisiología.
Física.
Matemáticas
Ciencia del Conocimiento.
Economía y finanzas
Estadísticas.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
2
Aplicaciones.
• Algunas aplicaciones:
–
–
–
–
–
–
–
–
–
–
Reconocimiento de patrones.
Predicción.
Regresión.
Compresión.
Procesamiento de Señales
Data Mining.
Series de Tiempo.
Finanzas.
Reconocimiento de voz, caras, caracteres .
Restauración de imagenes.etc.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
3
Ejemplo
Modelos de Regresión
Redes FeedForward
Modelos de Regresión
• Tipo de Redes:
– Feedforward , Feedforward Recurrentes
• Característica:
– Las redes Feedforward son aproximadores universales.
– Pueden modelar funciones altamente no-lineales, donde
modelos lineales tradicionales, no se comportan bien.
– No necesitan conocomiento del fenómeno, sólo un
conjunto de datos.
– Aprendizaje es supervizado.
– Corrección del Error
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
5
Formulación del problema
• Se desea modelar la siguiente función
 xi 1  f s ( xi )  ei

 f s ( xi )  10(1  exp( 0.5xi ))
donde
ei ~ N (0,  2 I10 )
Profesor: Dr. Héctor Allende
con
i  1,...,20
 2  1/ 3
Redes Neuronales Artificiales
6
Tipo de ANN utilizada
• La entrada a la red fue normalizada entre
[-1,1].
• Tiene 1 neurona de entrada y 1 de salida.
• La red tiene 1 capa escondida y 3 neuronas
escondidas.
• La red es del tipo FeedForward con
algoritmo de aprendizaje Back-Propagation.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
7
Proceso de Aprendizaje.
Desempeño del BackPropagation
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
8
Datos experimentales
y salida de la ANN
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
9
Ejemplo
Series de Tiempo y Predicción
Redes FeedForward
Formulación del problema
• Tipo de Redes:
– FeedForward.
• Modelar los datos de la “Línea Aerea
Internacional”
modelo (ARIMA), de orden (0,1,1)x(0,1,1)12
(1  B12 )(1  B) xt  (1  0 B12 )(1  B)at
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
11
ANN
de los datos de la Aerolínea
INPUT LAYER
x t-1
HIDDEN LAYER
OUTPUT LAYER
-1.1339
-3.1022
x t-12
-1.5058
xt
1.2433
x t-13
-0.0883
1
Profesor: Dr. Héctor Allende
1.5182
1
Redes Neuronales Artificiales
12
Datos de la Aerolínea
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
13
Ejemplo
Clasificación de Patrones
LVQ (Learning vector quantizacion)
Clasificación de Patrones
• Tipo de Redes:
– LVQ (Learning vector quantizacion).
• Característica:
– Consiste en clasificar un conjunto de elementos
en un conjunto de clases.
– Se debe utilizar redes con aprendizaje
supervisado.
– Las ANN son ampliamente usada en problemas
de clasificación.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
15
Formulación del Problema
• Patrones:
- 3 - 2 - 2 0 0 0 0 2 2 3
P

0
1
1
2
1
1
2
1
1
0


C [ 1
1
1 2 2 2 2 1 1 1]
– P son los patrones de entrada (p1 , p2)
– C es la clase a la cual pertenece cada patrón.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
16
Gráfico de la ubicación de los
Patrones.
Rojo
: Clase 1
Celeste : Clase 2
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
17
Parámetros de la ANN
• Neuronas escondidas: 4
• Razón de aprendizaje: 0.1
• Por ciento de cada clase: Clase 1: 60%,
Clase 2: 40%
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
18
Resultado de la Red neuronal.
+ Vectores de
entrada.
O Pesos de las
neuronas
Rojo: patrones
clasificados como
clase 1
Celeste: patrones
clasificados como
clase 2.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
19
Clasificación de caracteres
Counterpropagation Network
Redes CPN
Clasificación de Caracteres
• Tipo de Redes:
– CPN.
• Característica:
– Consiste en un problema de clasificación de patrones.
– Se debe utilizar redes con aprendizaje supervisado.
– Las ANN son ampliamente usada en estos problemas de
clasificación.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
21
Formulación del Problema
• Se tiene un conjunto de letras como una
imagen binaria de 5x6 pixeles, “1”cuando el
pixel esta encendido y “0” cuando el pixel
esta apagado
• La red tiene que asociar correctamente el
código ASCII a la imagen.
T
rep
x
( A)  (0 0 1 0 0 0 1 0 1 0 1 0 0 0 111
1111 0 0 0 11 0 0 0 1)
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
22
Ejemplo de Imágenes de Letras
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
23
Representación de las letras
x
T
rep
( A) 
0 0 1 0 0 
0 1 0 1 0 


1 0 0 0 1 

 Código ASCII de A  65
1 1 1 1 1 
1 0 0 0 1 



1 0 0 0 1 

T
y ( A)  (0 1 0 0 0 0 0 1) Código binario
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
24
Letras de Testeo
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
25
Ejemplo
Problemas de Heurística:
Traveling Salesperson Problem
(TSP)
Redes de Hopfield
Problemas de Heurística:
“Problema del Vendedor Viajero”
• Tipo de Redes:
– Hopfield bidimensional con memoria continua.
• Característica:
– Problema del tipo NP (no-polinomial).
– Consiste en un problema de Optimización.
– Se debe utilizar redes con aprendizaje no supervisado.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
27
Formulación del Problema
• Condiciones:
• Un vendedor viajero debe visitar un número de
ciudades, visitándolas todas, solo una vez.
• Moverse de una ciudad a otra tiene un costo
asociado ( dependiendo de la distancia) .
• El vendedor viajero debe volver al punto de partida.
• Se debe encontrar la secuencia correcta que
minimiza el costo.
• (n!): 2n = número de recorridos distintos
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
28
Análisis del Problema
• Sea C1, C2, .., CK las ciudades involucradas.
• A cada ciudad se le asocia un número que
representa el orden en el que fue visitada.
–
–
–
–
La representación es binaria.
Ej: 1era ciudad = (1 0 0... 0)
Ej: 2da ciudad = (0 1 0 ... 0)
Etc...
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
29
Matriz que define el Problema
1 .... j1 .... j2 .... K
1 .... 0 ..... 0 ..... 0 C1
.........................
0 .... 1 ..... 0 ..... 0 C k1
..........................
0 .... 0 ..... 1 ..... 0 C k2
..........................
0 .... 0 ..... 0 ..... 1 C K
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
30
Análisis del Problema
• La idea es construir una memoria de
Hopfied Bidimensional, tal que la salida es
la matriz Y que tiene la forma anterior, y
será la solución.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
31
Restricciones para Y
1. Cada ciudad no puede ser visitada más de 1 vez.
 Cada fila tiene no más de un 1.
2. 2 ciudades no pueden ser visitadas al mismo
tiempo  Cada columna no puede contener más
que un 1.
3. Todas las ciudades deben ser visitadas  Cada
fila o columna debe tener al menos un 1.
4. El costo o distancia total debe ser minimizado.
Sea dk1 k2 el costo entre las ciudades Ck1 y Ck2.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
32
Pesos asociados a las Neuronas.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
33
Construcción de los pesos.
1. Cada ciudad debe aparecer 1 vez en el
tour:
•
Una neurona en una fila debe inhibir todas las
otras de la misma fila.
wk(12)j2k1 j1   A k1k2 (1   j1 j2 ),
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
A R
34
Construcción de los pesos.
2. No debe haber con el mismo número de
orden en un tour.
•
Una neurona en una columna debe inhibir
todas las otras de la misma columna.
wk( 22 )j2k1 j1  B j1 j2 (1   k1k2 ), B  R 
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
35
Construcción de los pesos.
3. La mayoría de las neuronas deben tener
valor cero entonces se debe usar
inhibición global
wk(32 )j2k1 j1  C
Profesor: Dr. Héctor Allende
CR
Redes Neuronales Artificiales
36
Construcción de los pesos.
4. Distancia total debe ser minimizada,
entonces las neuronas reciben entrada
inhibitoria proporcinal a la distancia.
wk( 42 )j2 k1 j1   Dd k1k 2 ( j1 j2 '1   j1 j2 ´´ 1 ),
DR
donde
0 si j1  1 y j2  K
j2 '  
 j2 e.t.o.c.
 K  1 si j1  K y j2  1
j2 ' '  
 j2 e.t.o.c.
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
37
Función de Energía
• Función de energía de la memoria discreta de
Hopfield:
1 T
E   y Wy  y T ( x  t )
2
• Formula de actualización:


y(t  1)  y(t )  Wy (t )  C1̂  y(t )  [1̂  y (t )]
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
38
Inicio del Algoritmo.
TSP 50 ciudades
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
39
Solución Encontrada.
TSP 50 ciudades
Profesor: Dr. Héctor Allende
Redes Neuronales Artificiales
40