Download Enunciado - Google Groups
Document related concepts
Transcript
Universidad Tecnológica Nacional Facultad Regional Buenos Aires Inteligencia Artificial – XXXX Trabajo Práctico N°: 1 Tema TP: Redes Neuronales Grupo N°: 12 Legajo 116.224-0 248.503-5 117.741-2 118.659-0 117.430-7 115.504-0 Apellido y Nombre Castiglia, Martín Catanzaro, María Eugenia Fabrizi, Miguel Ferrer, Mariel Komesu, Esteban Piacentini, Martín Fecha Presentación: 19/05/2010 Clasificación: __________________ Fecha Devolución: ______________ Firma Profesor: ________________ Inteligencia Artificial TP N°: 1 Temas/s Evaluado/s: Redes Neuronales Grupo N°: 12 Tabla de Contenido Enunciado...................................................................................................................................... 3 Resolución ..................................................................................................................................... 4 Modelo y arquitectura: .............................................................................................................. 4 Estrategia de entrenamiento: .................................................................................................... 5 Implementación: ........................................................................................................................ 5 Entrenamiento: .......................................................................................................................... 6 Conclusiones:............................................................................................................................ 6 Pág 2 de 6 Inteligencia Artificial TP N°: 1 Temas/s Evaluado/s: Redes Neuronales Grupo N°: 12 Enunciado Primera entrega: a partir de un texto (ver anexo – El acertijo de los Alegres Frailes) que refleje el conocimiento de un experto para resolver un problema específico se deberán aplicar diferentes métodos (Redes Neuronales) para poder hallar la resolución al mencionado problema. Redes Neuronales: 1. Definir modelo y arquitectura de la Red Neuronal Artificial (RNA) que permita resolver el problema. 2. Indicar la estrategia de entrenamiento para la RNA definida, indicando los casos de prueba tipo a utilizar. 3. Implementar la RNA elegida 4. Realizar el entrenamiento de al menos un caso 5. Presentar justificación y conclusiones correspondientes. Pág 3 de 6 Inteligencia Artificial TP N°: 1 Temas/s Evaluado/s: Redes Neuronales Grupo N°: 12 Resolución A continuación se detallan punto por punto los distintos aspectos de la solución: Modelo y arquitectura: Capa de entrada: 16 neuronas Capa de oculta: 22 neuronas Capa de salida: 16 neuronas La topología de la red que planteamos es multicapa. Posee 16 neuronas de entrada (1 por cada casillero del tablero), 22 neuronas en la única capa oculta (1 por cada posible línea, horizontal, vertical o diagonal) y 16 neuronas de salida (1 por cada casillero del tablero). La función de transferencia es la sigmoidal: yk 1 1 e Net k La conectividad es completa y el método utilizado para el aprendizaje es backpropagation. Pág 4 de 6 Inteligencia Artificial TP N°: 1 Temas/s Evaluado/s: Redes Neuronales Grupo N°: 12 Estrategia de entrenamiento: La estrategia de entrenamiento se puede clasificar como supervisada, off-line y por corrección de errores. Ya que: se entrega un set de pares “entrada posible-salida deseada” para que la red se vaya autocorrigiendo siguiendo el algoritmo de backpropagation, método que se explica brevemente a continuación. Caracterización de una red Backpropagation El funcionamiento de una red backpropagation consiste en un aprendizaje de un conjunto predefinido de pares entrada-salida dados como ejemplo, empleando un ciclo de propagaciónadaptación de dos fases: primero se aplica un patrón de entrada en la capa de entrada de la red el cual se propaga hacia las capas superiores hasta generar una salida, se compara el resultado obtenido en cada neurona de salida con el valor deseado para esa neurona y se obtiene un error para dicha unidad. A continuación, estos errores se transmiten hacia atrás hacia todas las neuronas de la capa intermedia que contribuyen directamente a la salida, recibiendo el porcentaje de error aproximado a la participación de la neurona intermedia en la salida original. Este proceso se repite por capa hasta llegar a la entrada y hasta que cada neurona haya recibido un error que describa su aporte al error total. Según el valor del error recibido, se reajustan los pesos de las conexiones entre cada par de neuronas en la red, de manera de que el error total cometido para ese patrón disminuya. Proceso de aprendizaje El algoritmo backpropagation encuentra un valor mínimo de error (local o global) mediante la aplicación de pasos descendentes (gradiente descendente). Cada punto de la superficie de la función de error corresponde a un conjunto de valores de los pesos de la red. Con el gradiente descendente, siempre que se realiza un cambio en todos los pesos de la red, se asegura el descenso por la superficie del error hasta encontrar el valle más cercano, lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo local de error. Por lo tanto, un problema de este algoritmo de entrenamiento es que busca minimizar la función de error pudiendo caer en un mínimo local o algún punto estacionario sin llegar a encontrar el mínimo global. Sin embargo hay que tener en cuenta que no siempre es necesario encontrar el mínimo global, sino que puede ser suficiente con un error menor a un máximo preestablecido. Implementación: Para la implementación utilizamos Joone 2.0. Se adjunta en formato digital con el presente TP: el archivo .SER, y un instructivo para su uso. Pág 5 de 6 Inteligencia Artificial TP N°: 1 Temas/s Evaluado/s: Redes Neuronales Grupo N°: 12 Entrenamiento: Print-screen mostrando el entrenamiento en Joone. Conclusiones: Para la realización de este trabajo práctico, el grupo debió profundizar en los contenidos teóricos vistos en clase sobre Redes Neuronales Artificiales, para entender cómo aplicarlos a un problema real. Este, creemos que es el aspecto más positivo de esta primera entrega, poder ver como funciona una red back-propagation, qué parámetros tiene y cómo influyen en el entrenamiento y funcionamiento de la red. CONTINUAR Pág 6 de 6