Download Descarga

Document related concepts

Perceptrón wikipedia , lookup

Perceptrón multicapa wikipedia , lookup

Propagación hacia atrás wikipedia , lookup

Red neuronal prealimentada wikipedia , lookup

Redes neuronales probabilísticas wikipedia , lookup

Transcript
Universidad de Carabobo.
Facultad de ingeniería
Área de postgrado
Maestría en Matemática y computación
Asignatura: Redes Neuronales
PRIMERA ENTREGA
Alejandro Contreras
C.I: 17173539
Prof: Víctor Barrios
Bárbula, Noviembre de 2010.
El Perceptrón es un tipo de red neuronal artificial desarrollado por Frank
Rosenblatt, véase Perceptrón multicapa, también puede entenderse como perceptrón la
neurona artificial y unidad básica de inferencia en forma de discriminador lineal, que
constituye este modelo de red neuronal artificial, esto debido a que el perceptrón puede
usarse como neurona dentro de un perceptrón más grande u otro tipo de red neuronal
artificial.
El perceptrón usa una matriz para representar las redes neuronales y es un
discriminador terciario que traza su entrada x (un vector binario) a un único valor de
salida f(x) (un solo valor binario) a través de dicha matriz.
Donde w es un vector de pesos reales y
es el producto punto (que computa
una suma ponderada). u es el 'umbral', el cual representa el grado de inhibición de la
neurona, es un término constante que no depende del valor que tome la entrada.
El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo o un caso
negativo, en el caso de un problema de clasificación binario. El umbral puede pensarse
de como compensar la función de activación, o dando un nivel bajo de actividad a la
neurona del rendimiento. La suma ponderada de las entradas debe producir un valor
mayor que u para cambiar la neurona de estado 0 a 1.
Descripción del ejemplo
Entrenamiento de un perceptron multicapa para realizar la operación
XOR
Descripción de la red.
• 1 capa oculta
• 2 neuronas en capa de entrada (i1, i2)
• 2 neuronas en capa oculta (h1, h2)
• 1 neurona en capa de salida (o1)
Red inicial con pesos aleatorios
Propagación hacia adelante del ejemplo e1
Entradas
• x1 = 0, x2 = 1
• Salida esperada: t1 = 1
Capa oculta
• Neurona h1:
Ajuste de pesos por retropropagación del error
(1) Pesos de la capa de salida
Neurona o1:
• Error real obtenido en neurona o1: t1 − o1 = 1 − 0,573 =
0,427
• Nuevos pesos para neurona o1: W2jk = W2jk + α hj k
k = g′(entk) ∗ (Tk − ok) = ok ∗ (1 − ok) ∗ (Tk − ok)
1 = 0,573 ∗ (1 − 0,573) ∗ 0,427 = 0,1044
W211 = W211 + αh11 = 0,2 + 0,25 ∗ 0,332 ∗ 0,1044 = 0,2086
W221 = W221 + αh21 = 0,4 + 0,25 ∗ 0,574 ∗ 0,1044 = 0,4149
(2) Pesos de la capa oculta
Formulas de ajuste:
• Error estimado en neurona hj:
• Nuevos pesos:
W112 = W112 + αi11 = 0,5 + 0,25 ∗ 0 ∗ 0,0102 = 0,5
W122 = W122 + αi21 = 0,3 + 0,25 ∗ 1 ∗ 0,0102 = 0,3025
Related documents