Download Trabajo Práctico #2 - Sitios de las cátedras Facultad de Ciencias

Document related concepts

Perceptrón wikipedia , lookup

Red neuronal prealimentada wikipedia , lookup

Perceptrón multicapa wikipedia , lookup

Propagación hacia atrás wikipedia , lookup

Red neuronal cuántica wikipedia , lookup

Transcript
Cátedra de Inteligencia Artificial
Facultad de Ciencias Exactas y Tecnología
Departamento de Eléctrica, Electrónica y Computación
Universidad Nacional de Tucumán
TRABAJOPRACTICON°2:REDESNEURONALES(NN)
LasconsignasdelTrabajoPracticoconsistenenelcumplimientodelassiguientesclausulas:
1.DesarrollodelmarcoteóricogeneraldelasRedesNeuronales.
2.DesarrollodelmarcoteóricoparticulardelasRedesNeuronales.
3.Resolucióndelassituacionesproblemáticasplanteadas.
4.ElaboracióndeConclusiones.
5.DocumentarBibliografíautilizada.
6.DocumentarSitioswebsutilizados.
Lapresentacióndeberárealizarseenpapelytendrácarácterunipersonal.
ProblemaN°1
Demostrar que el perceptrón simple es capaz de discriminar entre dos clases linealmente
separablesdefinidasapartirdenneuronasdeentrada.
ProblemaN°2
Supongamos que tenemos que separar los puntos P1=(1,1), P2=(1,0), P3=(0,1) por la función
f(x,y)=3x+2y>2 ( es decir, devuelve 1 si se cumple la desigualdad y 0 si no la cumple). Para ello
construye un perceptrón simple y utiliza como función de activación a función sigmoidea, una
funcióndeaprendizajebasadaenlaReglaDeltageneralizadayunfactordeaprendizajee=0,5.
Asignavaloresaleatoriosypequeños,tantospositivoscomonegativosalospesossinápticos.
Realizasólounaiteraciónparacadaunodelospatronesdeentrada.
ProblemaN°3
Sealasiguienteredneuronalconunaúnicaneuronaoculta.Realizaunaiteraciónparaelpatrón
P1=(101)yotraparaelpatrónP2=(110)utilizandolafunciónXORcomofuncióndiscriminante.
Usa además como algoritmo de aprendizaje el algoritmo de Backpropagation propuesto por
RumelhartyMcClelland.
ProblemaN°4
Consideremos la siguiente red neuronal con función de activación lineal g(x)=x en todas sus
unidades.
Seanlosejemplosdeentrenamiento(x1,y1)=({0,0},1)y(x2,y2)=({1,1},0).Aplicarunaiteracióndel
algoritmo de retropropagación para cada uno de estos ejemplos, tomando 0,1 como factor de
aprendizajeytodoslospesosinicialesigualesa0,5.
ProblemaN°5
Comprobar que el perceptrón simple no es capaz de aprender la función lógica "or-exclusivo",
también denominada XOR2, en la cual la salida es 0 si las dos variables binarias de entrada son
iguales,y1silasdosvariablesbinariasdeentradasondiferentes.
ProblemaN°6
RealiceelcódigoutilizandoeleditordeMatlabpararesolverelproblemaN°2.
ProblemaN°7
UtilizandoelToolboxdeRedesNeuronalesdeMatlabresolverelproblemaN°3.
PAGINA
1