Download Soluciones a la prueba parcial - OCW

Document related concepts

Perceptrón multicapa wikipedia , lookup

Propagación hacia atrás wikipedia , lookup

RNA de base radial wikipedia , lookup

Red neuronal prealimentada wikipedia , lookup

Perceptrón wikipedia , lookup

Transcript
UNIVERSIDAD CARLOS III DE MADRID
OPENCOURSEWARE
REDES DE NEURONAS ARTIFICIALES
INES M. GALVAN - JOSE Mª VALLS
PRUEBA PARCIAL
1. (0.1 puntos) ¿Qué tipos de problemas se pueden abordar mediante las redes de neuronas
artificiales?
Respuesta:
Aquellos problemas para los que se dispone de un conjunto de datos numéricos o simbólicos
que representen dicho problema. Pueden ser problemas de clasificación, regresión, predicción
o agrupamiento.
2. (0.1 puntos) En un problema de regresión, disponemos de una red monocapa con funciones
de activación lineal (sin capas ocultas). Después del entrenamiento se ha conseguido el mejor
ajuste posible con dicha arquitectura. ¿Es posible ajustar mejor la red a los datos disponibles
(disminuir el error de entrenamiento) añadiendo capas ocultas con activación lineal? Justificar
la respuesta.
Respuesta:
No. Cuando a una red monocapa se le añaden neuronas ocultas con activación lineal, la red
resultante sigue siendo una red monocapa. Es necesario poner activaciones no lineales para
conseguir redes con más de una capa oculta.
3. (0.1 puntos) - Explicar en qué consiste el sobreaprendizaje de una red de neuronas.
Respuesta:
Se dice que hay sobreaprendizaje cuando a lo largo de los ciclos de entrenamiento, el error de
entrenamiento disminuye, pero llega un momento en que el error de test empieza a aumentar.
La red se aprende los patrones de entrenamiento, pero no generaliza con patrones diferentes,
debido a que se ha especializado demasiado en los patrones de entrenamiento.
4. (0.1 puntos) Cuál de las siguientes afirmaciones es cierta en el algoritmo de
retropropagación:
a) El valor de la salida se propaga hacia atrás, hacia la capa de entrada
b) El término delta de una neurona es la derivada de la salida
c) Para ajustar cada peso se tiene en cuenta el término delta de la neurona
destino de la conexión (capa c+1) y la activación de la neurona origen (capa c).
d) Para ajustar cada peso se tiene en cuenta el término delta de la neurona origen
de la conexión (capa c) y la activación de la neurona destino (capa c+1).
Respuesta:
c)
5. (0.2 puntos) Describa brevemente el proceso de aprendizaje del ADALINE.
Respuesta:
Paso 1: Inicializar los pesos de forma aleatoria
Paso 2: Introducir un patrón de entrada
Paso 3: Calcular la salida, compararla con la deseada y obtener la diferencia: (dp - yp)
Paso 4: Para todos los pesos, multiplicar dicha diferencia por la entrada correspondiente y
ponderarla por la tasa de aprendizaje
Δ p w j = γ (d p − y p ) x j
Paso 5: Modificar el peso sumando al valor antiguo la cantidad obtenida en 4)
wj (t+1) = wj (t) + Δp wj
Paso 6: Repetir los pasos 2, 3 y 4 para todos los patrones
Paso 7: Si no se ha cumplido el criterio de convergencia, realizar tantos ciclos hasta cumplir el
criterio de convergencia (el error de entrenamiento permanezca constante)
6. (0.2 puntos) En la regla Delta y Delta Generalizada, el incremento del peso es
Δw = −α
∂e(n)
∂w
a) ¿Qué se persigue al modificar los pesos de una red con dicha ley?
Respuesta:
Minimizar el error cometido por la red
b) ¿Qué significado tiene el parámetro α?
Respuesta:
Es la razón de aprendizaje y controla el cambio que sufre los pesos en cada iteración.
Puede amortiguar cambios bruscos cuando se está lejos del mínimo.
7. (0.2 puntos) Sea la siguiente arquitectura de red, en la que las neuronas de la capa oculta
poseen activación sigmoidal entre 0 y 1 y la neurona de salida función de activación lineal.
x1
y
x2
Indique las expresiones para ajustar los pesos de la capa oculta a la capa de salida.
Respuesta:
Si b1 y b2 son las activaciones de las neuronas ocultas; w1 y w2 son los pesos de las neuronas
ocultas a la neurona de salida; s es la salida deseada para la red con salida y, entonces las
expresiones son:
wi (t+1) = wi (t) + α (s-y) · bi