Download Enunciado - Google Groups

Document related concepts

Propagación hacia atrás wikipedia , lookup

Perceptrón multicapa wikipedia , lookup

Red neuronal prealimentada wikipedia , lookup

Red neuronal artificial wikipedia , lookup

Adaline wikipedia , lookup

Transcript
Universidad Tecnológica Nacional
Facultad Regional Buenos Aires
Inteligencia Artificial – XXXX
Trabajo Práctico N°: 1
Tema TP: Redes Neuronales
Grupo N°: 12
Legajo
116.224-0
248.503-5
117.741-2
118.659-0
117.430-7
115.504-0
Apellido y Nombre
Castiglia, Martín
Catanzaro, María Eugenia
Fabrizi, Miguel
Ferrer, Mariel
Komesu, Esteban
Piacentini, Martín
Fecha Presentación:
19/05/2010
Clasificación: __________________
Fecha Devolución: ______________
Firma Profesor: ________________
Inteligencia Artificial
TP N°: 1
Temas/s Evaluado/s: Redes Neuronales
Grupo N°: 12
Tabla de Contenido
Enunciado...................................................................................................................................... 3
Resolución ..................................................................................................................................... 4
Modelo y arquitectura: .............................................................................................................. 4
Estrategia de entrenamiento: .................................................................................................... 5
Implementación: ........................................................................................................................ 5
Entrenamiento: .......................................................................................................................... 6
Conclusiones:............................................................................................................................ 6
Pág 2 de 6
Inteligencia Artificial
TP N°: 1
Temas/s Evaluado/s: Redes Neuronales
Grupo N°: 12
Enunciado
Primera entrega: a partir de un texto (ver anexo – El acertijo de los Alegres Frailes) que refleje
el conocimiento de un experto para resolver un problema específico se deberán aplicar
diferentes métodos (Redes Neuronales) para poder hallar la resolución al mencionado
problema.
Redes Neuronales:
1. Definir modelo y arquitectura de la Red Neuronal Artificial (RNA) que permita resolver
el problema.
2. Indicar la estrategia de entrenamiento para la RNA definida, indicando los casos de
prueba tipo a utilizar.
3. Implementar la RNA elegida
4. Realizar el entrenamiento de al menos un caso
5. Presentar justificación y conclusiones correspondientes.
Pág 3 de 6
Inteligencia Artificial
TP N°: 1
Temas/s Evaluado/s: Redes Neuronales
Grupo N°: 12
Resolución
A continuación se detallan punto por punto los distintos aspectos de la solución:
Modelo y arquitectura:
Capa de entrada: 16 neuronas
Capa de oculta: 22 neuronas
Capa de salida: 16 neuronas
La topología de la red que planteamos es multicapa. Posee 16 neuronas de entrada (1 por
cada casillero del tablero), 22 neuronas en la única capa oculta (1 por cada posible línea,
horizontal, vertical o diagonal) y 16 neuronas de salida (1 por cada casillero del tablero).
La función de transferencia es la sigmoidal:
yk 
1
1  e  Net k
La conectividad es completa y el método utilizado para el aprendizaje es backpropagation.
Pág 4 de 6
Inteligencia Artificial
TP N°: 1
Temas/s Evaluado/s: Redes Neuronales
Grupo N°: 12
Estrategia de entrenamiento:
La estrategia de entrenamiento se puede clasificar como supervisada, off-line y por corrección
de errores. Ya que: se entrega un set de pares “entrada posible-salida deseada” para que la
red se vaya autocorrigiendo siguiendo el algoritmo de backpropagation, método que se explica
brevemente a continuación.
Caracterización de una red Backpropagation
El funcionamiento de una red backpropagation consiste en un aprendizaje de un conjunto
predefinido de pares entrada-salida dados como ejemplo, empleando un ciclo de propagaciónadaptación de dos fases: primero se aplica un patrón de entrada en la capa de entrada de la
red el cual se propaga hacia las capas superiores hasta generar una salida, se compara el
resultado obtenido en cada neurona de salida con el valor deseado para esa neurona y se
obtiene un error para dicha unidad. A continuación, estos errores se transmiten hacia atrás
hacia todas las neuronas de la capa intermedia que contribuyen directamente a la salida,
recibiendo el porcentaje de error aproximado a la participación de la neurona intermedia en la
salida original. Este proceso se repite por capa hasta llegar a la entrada y hasta que cada
neurona haya recibido un error que describa su aporte al error total. Según el valor del error
recibido, se reajustan los pesos de las conexiones entre cada par de neuronas en la red, de
manera de que el error total cometido para ese patrón disminuya.
Proceso de aprendizaje
El algoritmo backpropagation encuentra un valor mínimo de error (local o global) mediante la
aplicación de pasos descendentes (gradiente descendente). Cada punto de la superficie de la
función de error corresponde a un conjunto de valores de los pesos de la red. Con el gradiente
descendente, siempre que se realiza un cambio en todos los pesos de la red, se asegura el
descenso por la superficie del error hasta encontrar el valle más cercano, lo que puede hacer
que el proceso de aprendizaje se detenga en un mínimo local de error.
Por lo tanto, un problema de este algoritmo de entrenamiento es que busca minimizar la
función de error pudiendo caer en un mínimo local o algún punto estacionario sin llegar a
encontrar el mínimo global. Sin embargo hay que tener en cuenta que no siempre es necesario
encontrar el mínimo global, sino que puede ser suficiente con un error menor a un máximo
preestablecido.
Implementación:
Para la implementación utilizamos Joone 2.0. Se adjunta en formato digital con el presente TP:
el archivo .SER, y un instructivo para su uso.
Pág 5 de 6
Inteligencia Artificial
TP N°: 1
Temas/s Evaluado/s: Redes Neuronales
Grupo N°: 12
Entrenamiento:
Print-screen mostrando el entrenamiento en Joone.
Conclusiones:
Para la realización de este trabajo práctico, el grupo debió profundizar en los contenidos
teóricos vistos en clase sobre Redes Neuronales Artificiales, para entender cómo aplicarlos a
un problema real. Este, creemos que es el aspecto más positivo de esta primera entrega, poder
ver como funciona una red back-propagation, qué parámetros tiene y cómo influyen en el
entrenamiento y funcionamiento de la red.
CONTINUAR
Pág 6 de 6
Related documents