Download Comparación de Modelos Neuronales Utilizadas

Document related concepts

Neuroph wikipedia , lookup

Hopfield (RNA) wikipedia , lookup

Red neuronal cuántica wikipedia , lookup

Máquina de Boltzmann wikipedia , lookup

Teoría hebbiana wikipedia , lookup

Transcript
Comparación de Modelos
Neuronales Utilizadas en
la Toma de Decisiones
Cátedra de Inteligencia Artificial
Carlos M. Vicentín
Darío A. Quintana
Juan Carlos Insfran
Agenda

Marco Teórico




Red Hopfield
Red BackPropagation
Propuesta de implementación
Conclusión
Redes de Hopfield

Características

Monocapa

Tiene n Número de neuronas
Modelo Original: Discret Hopfield



Función de Activación: Escalón
No son Auto-recurrentes

Las salidas de las neuronas se comunican con todas
las demás pero no consigo misma
Redes de Back Propagation

Características


Redes multi-capas
Propagación hacia delante



Aprendizaje supervisado
Auto-Adaptación de los pesos de capas
intermedias
En funcionamiento:

Provee salidas satisfactorias a entradas que no ha
visto nunca en su etapa de entrenamiento
Una propuesta

Desarrollo de un software que de soporte a
las decisiones de otorgamiento de crédito
de una Empresa financiera
¿Por qué usar Redes
Neuronales?


No existen relaciones directas entre cada
posible configuración del modelo de cliente y
su correspondiente perfil.
Existen ejemplos de distintos casos de
asignación de créditos.
Detalle del Modelo de Cliente
Características
Descripción
Edad
Importante para evaluar el resto de las características.
Nacionalidad
Característica necesaria a la hora de evaluar la historia de un cliente.
Estado Civil
Refleja el grado de responsabilidades a cargo y cultura del cliente.
Personas a Cargo
Implica el compromiso de un egreso patrimonial del cliente.
Situación Laboral
Importante para determinar el grado en que puede cancelar el crédito.
Años de Antigüedad
Refleja la solides del desempeño laboral del cliente, respecto a la edad actual.
Situación en VERAZ
Refleja el grado de endeudamiento y compromisos financieros con otras empresas.
Ingreso Salarial
Medida en la que el cliente puede cancelar la cuota con un ingreso mensual propio,
y el grado de dependencia hacia un garante.
Inmuebles
Grado en que el cliente puede cancelar la deuda ante alguna irregularidad.
Muebles
Ídem Inmuebles, con la diferencia que éste último posee mayor liquides.
Créditos Cancelados
Refleja la historia financiera en la cancelación favorable de los créditos en la
Empresa.
Créditos Vigentes
Grado de compromisos financieros respecto a las características anteriores.
Implementación de una Red
Neuronal Hopfield


Cada característica se corresponda con una
Neurona de Hopfield.
Se discretizaron las características

Por Ejemplo: Edad



21 a 40 años
41 a 60 años
Mayor que 61 años
Implementación de una Red
Neuronal Backpropagation

Cada característica se corresponde con una
neurona de entrada (12 neuronas)
Herramientas de Desarrollo



Plataforma .Net
Lenguaje C#
XML.
Arquitectura del Software

Interfaz Grafica de Usuario


Lógica de Negocio


Win Forms
Implementación de los algoritmos de ambas
Redes Neuronales (Entrenamiento y
Reconocimiento)
Persistencia

Archivos XML
Conclusión
Resultados en Hopfield
Hopfield
Resultados en BPN
BackPropagation
No pudo Inferir;
23%
Infirió
Erroneamente;
27%
BPN infirió
Erroneamente;
0%
BPN No Pudo
Inferir; 0%
Infirió
Correctamente;
50%
BPN Infirió
Correctamente;
100%
Aspectos a Considerar
Aspectos
Complejidad
en la
implantación
Recursos
computacionales
Rendimiento
Hopfield
Backpropagation
Simple.
Compleja,
Mínimos.
Altos,
Según los experimentos realizados,
Hopfield
cuenta
con
un
rendimiento favorable de tan
solo el 50%.
Ante los mismos patrones de pruebas la BPN
presento un rendimiento favorable del 100%.
Esto es debido al tipo de
entrenamiento, una vez hecha la
estructura
de
datos
correspondiente solo resta por
encontrar
una
buena
configuración de patrones de
entrenamiento.
Todo el procesamiento
en Hopfield se resume a
cálculos matriciales.
ya que se requiere un tiempo
considerable debido a la metodología prueba
y error para la determinación de la cantidad
de capas ocultas, números de neuronas en las
mismas y valor de los factores de aprendizaje
y momento.
esto es respecto a la fase de
entrenamiento, la cual requiere n iteraciones
hasta que la red converja. Una vez entrenada
la red, el funcionamiento (reconocimiento)
puede
ejecutarse
con
recursos
computacionales mínimos.
¿ Preguntas ?
[email protected]
[email protected]
[email protected]