Download CONEXIONISMO PROCESAMIENTO DISTRIBUIDO EN PARALELO

Document related concepts

Conexionismo wikipedia , lookup

Neurofilosofía wikipedia , lookup

Marvin Minsky wikipedia , lookup

Teoría hebbiana wikipedia , lookup

Red neuronal prealimentada wikipedia , lookup

Transcript
Inteligencia Artificial (BAIA)

Se propone lograr que las computadoras se
comporten de manera que podamos
reconocerlas como inteligentes.

Tiene por objeto entender la inteligencia natural.

Las computadoras manipulan símbolos en
términos de reglas precisas

Contienen estructuras de datos y reglas
formales y precisas, referidas a
representaciones estructuradas sintácticamente
Crisis de la BAIA

Limitación de las computadoras: Reconocimiento,
comprensión del habla, recuerdo, reconocimiento,
planificación, dificultades para aprender. Direccionamiento de
la memoria basado en la dirección y no en contenido.

Los cerebros no hacen las cosas de la misma forma que las
computadoras. Inteligencias y formas de operación diferentes.
Neuronas lentas y de degradación armoniosa.

Restricciones débiles, múltiples y simultáneas que pueden
ser violadas (problema de marco) y cualquier porción de
información puede resultar relevante para cualquier tarea o
conocimiento y puede cambiar el sistema total (cruzamiento).
Sistemas conexionistas o redes
neuronales

Red de procesadores simples (neuronas) denominados
“nodos”. Cada nodo tiene conexiones con varios nodos de
quienes recibe y a quienes envía señales.

El input de cada nodo es una señal simple, de tipo
eléctrica, que podría tener valores encendido-apagado o
variar en una dimensión (fuerza).

Las señales pueden ser de inhibición o de excitación

El input total de un nodo determina su estado de activación
(on-off vs. umbral de encendido).
Sistemas conexionistas o redes
neuronales

La fuerza de la conexión entre nodos se denomina peso.

El aprendizaje conexionista consiste en obtener que los
pesos cambien.

Si el peso entre dos nodos aumenta, disminuye la
resistencia y aumenta la probabilidad de que cuando uno
se encienda también lo haga el otro.

Nodos de input – Nodos internos - Nodos de output.

No hay limitaciones sobre los tipos de estructuras de
nodos. Estructura por capas.
Sistemas conexionistas o redes
neuronales

Problema: activación de nodos de input.

Procesamiento: activación de nodos internos.

Solución: activación de nodos de output

Existe retroalimentación, lazos y conexiones
inhibitorias que determinan una única solución.

Se produce actividad hasta que el sistema se
asienta y determina una configuración estable.
Sistemas conexionistas o redes
neuronales

No hay procesador central y no hay programas.

Todas las conexiones son locales. Las conexiones
entre nodos son locales.

Cada nodo solo sabe lo que obtiene de los nodos
conectados a él (prendido-apagado).

Lo que ocurre en un lugar del sistema es
independiente de lo que ocurre en otro lugar.

Procesamiento local simultáneo distribuido en todo
el sistema
Sistemas conexionistas o redes
neuronales

Del procesamiento local simultáneo emerge una
configuración estable del sistema (solución).

Capacidad de aprender: se asignan
interpretaciones arbitrarias a patrones de nodos
como output correcto, dado cierto patrón de
estimulación de nodos de input.

Los pesos se ajustan algorítmicamente como
función de la contribución de cada peso al error.

La retropropagación produce el output correcto para
cada configuración inicial de inputs
Sistemas conexionistas o redes
neuronales

¿Cuál es el proceso en la red que cambia los pesos
adecuadamente? Problema actual de investigación.

Una representación es un cierto patrón de activación con
algunos nodos encendidos y algunos apagados. Se las
denomina representaciones distribuidas

Los pesos son establecidos de manera que las
representaciones tienden a completarse a si mismas, una
vez que algunos nodos están activados. Memoria
direccionable al contenido.

Una porción del contenido tiende a activar la totalidad.
Cuando nodos de diferentes representaciones se activan
compiten por consumarse o completarse en función de
mejor ajuste al input.
Sistemas conexionistas o redes
neuronales

Las restricciones pueden ser violadas por la representación
que mejor se ajusta al input en un todo. Restricciones
débiles.

En BAIA las restricciones son lógicas e inviolables. La
información se almacena de la misma forma en que se usa.

PDP la información se representa como patrón de
activación. Cuando no está en uso, el patrón no está
presente en ningún lado del sistema. No se almacena como
estructura de datos.

Los pesos son tales que las representaciones apropiadas
se crean cuando se necesitan. La información se almacena
en los pesos.
Sistemas conexionistas o redes
neuronales

Las representaciones se crean en respuesta a
estímulos internos o externos.

Los recuerdos no se almacenan, sino que se recrean
en respuesta a aquello que nos haga recordar.

La información que no está efectivamente activa está
en el sistema de manera potencial.

Las representaciones no tienen estructuras
sintácticas. Son representaciones atómicas, no
estructuradas.
La representación en los
sistemas conexionistas

Representaciones intrínsecas: emplean
relaciones con las mismas constricciones
inherentes a la relación que representa
(imagen).

Representaciones extrínsecas: relación
arbitraria entre la representación y lo
representado (proposición).

Las representaciones (estructuras) dependen
de los procesos (actividades).
La representación en los
sistemas conexionistas
Modelos simbólicos

Representación por sistema de símbolos.

Nivel semántico explica por qué los sistemas
conocen sus objetivos.

Nivel simbólico codifica contenido semántico y
dicta reglas para manipulación de símbolos.

Nivel físico actúa como soporte material del
sistema
La representación en los
sistemas conexionistas
Modelos conexionistas o no simbólicos
 Rechazan la idea de la manipulación de
símbolos.
 Poca probabilidad de que el cerebro
implemente programas seriales.
Funcionamiento paralelo.
 Redes con capacidad de autogenerarse, de
completar patrones y de tolerar
imperfecciones
La representación en los
sistemas conexionistas

Equipotencialidad de Lashley. El aprendizaje se produce
por un cambio en la fuerza de las conexiones entre
elementos de una red.

La conectividad del cerebro cambia con el aprendizaje.

Cada entidad se representa como un patrón de activación
distribuida de elementos simples de computación.

Cada elemento está implicado en la representación de
muchas entidades diferentes.

La representación es numérica en lugar de simbólica