Download Soluciones a la prueba parcial - OCW
Document related concepts
Transcript
UNIVERSIDAD CARLOS III DE MADRID OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES INES M. GALVAN - JOSE Mª VALLS PRUEBA PARCIAL 1. (0.1 puntos) ¿Qué tipos de problemas se pueden abordar mediante las redes de neuronas artificiales? Respuesta: Aquellos problemas para los que se dispone de un conjunto de datos numéricos o simbólicos que representen dicho problema. Pueden ser problemas de clasificación, regresión, predicción o agrupamiento. 2. (0.1 puntos) En un problema de regresión, disponemos de una red monocapa con funciones de activación lineal (sin capas ocultas). Después del entrenamiento se ha conseguido el mejor ajuste posible con dicha arquitectura. ¿Es posible ajustar mejor la red a los datos disponibles (disminuir el error de entrenamiento) añadiendo capas ocultas con activación lineal? Justificar la respuesta. Respuesta: No. Cuando a una red monocapa se le añaden neuronas ocultas con activación lineal, la red resultante sigue siendo una red monocapa. Es necesario poner activaciones no lineales para conseguir redes con más de una capa oculta. 3. (0.1 puntos) - Explicar en qué consiste el sobreaprendizaje de una red de neuronas. Respuesta: Se dice que hay sobreaprendizaje cuando a lo largo de los ciclos de entrenamiento, el error de entrenamiento disminuye, pero llega un momento en que el error de test empieza a aumentar. La red se aprende los patrones de entrenamiento, pero no generaliza con patrones diferentes, debido a que se ha especializado demasiado en los patrones de entrenamiento. 4. (0.1 puntos) Cuál de las siguientes afirmaciones es cierta en el algoritmo de retropropagación: a) El valor de la salida se propaga hacia atrás, hacia la capa de entrada b) El término delta de una neurona es la derivada de la salida c) Para ajustar cada peso se tiene en cuenta el término delta de la neurona destino de la conexión (capa c+1) y la activación de la neurona origen (capa c). d) Para ajustar cada peso se tiene en cuenta el término delta de la neurona origen de la conexión (capa c) y la activación de la neurona destino (capa c+1). Respuesta: c) 5. (0.2 puntos) Describa brevemente el proceso de aprendizaje del ADALINE. Respuesta: Paso 1: Inicializar los pesos de forma aleatoria Paso 2: Introducir un patrón de entrada Paso 3: Calcular la salida, compararla con la deseada y obtener la diferencia: (dp - yp) Paso 4: Para todos los pesos, multiplicar dicha diferencia por la entrada correspondiente y ponderarla por la tasa de aprendizaje Δ p w j = γ (d p − y p ) x j Paso 5: Modificar el peso sumando al valor antiguo la cantidad obtenida en 4) wj (t+1) = wj (t) + Δp wj Paso 6: Repetir los pasos 2, 3 y 4 para todos los patrones Paso 7: Si no se ha cumplido el criterio de convergencia, realizar tantos ciclos hasta cumplir el criterio de convergencia (el error de entrenamiento permanezca constante) 6. (0.2 puntos) En la regla Delta y Delta Generalizada, el incremento del peso es Δw = −α ∂e(n) ∂w a) ¿Qué se persigue al modificar los pesos de una red con dicha ley? Respuesta: Minimizar el error cometido por la red b) ¿Qué significado tiene el parámetro α? Respuesta: Es la razón de aprendizaje y controla el cambio que sufre los pesos en cada iteración. Puede amortiguar cambios bruscos cuando se está lejos del mínimo. 7. (0.2 puntos) Sea la siguiente arquitectura de red, en la que las neuronas de la capa oculta poseen activación sigmoidal entre 0 y 1 y la neurona de salida función de activación lineal. x1 y x2 Indique las expresiones para ajustar los pesos de la capa oculta a la capa de salida. Respuesta: Si b1 y b2 son las activaciones de las neuronas ocultas; w1 y w2 son los pesos de las neuronas ocultas a la neurona de salida; s es la salida deseada para la red con salida y, entonces las expresiones son: wi (t+1) = wi (t) + α (s-y) · bi