Download fisica2byg_08

Document related concepts

Codificación neural wikipedia , lookup

Neurona wikipedia , lookup

Perceptrón wikipedia , lookup

Red neuronal de impulsos wikipedia , lookup

Corteza visual wikipedia , lookup

Transcript
En busca del umbral perdido
1
200
150
20 segundos!
100
50
%Correcto
0.95
0.9
0.85
0.8
0.75
0.7
0
0
10
20
30
0.65
1
2
3
4
Tiempo
5
umbral
conservador
umbral
arriesgado
RT menor
Errores mayor
El subterráneo de una decisión.
Neuronas del presente y del
pasado y otras que dicen basta
ya.
El maestro: Alan Turing
Enigma
Implementación neuronal de los tres pasos:
1) Un método para cuantificar el peso de la evidencia de un evento
individual a favor de distintas alternativas. (EL VOTO)
2) Un método para acumular y actualizar el peso proveniente de
eventos múltiples. (LA ACUMULACION DE VOTOS)
3) Una regla de decisión para determinar si la evidencia era
suficiente para determinar la hipótesis mas probable. (LA
RESOLUCION)
“Las neuronas que integran
o acumulan el voto”
“Las neuronas
que determinan el
umbral”
“Las neuronas que votan”
La neurofisiología de la toma de decisiones
Simulacro en el laboratorio de la toma de decisiones
en un mundo incierto.
Mov = 6±ε
6 ±ε
Acum = 6  
12   2
6 ±ε
18   3
6 ±ε
24   4
ε cuantifica las fluctuaciones y por lo tanto
disminuye con el numero de partículas
Mov = 11
11
11
11
Acum = 11
22
33
44
Mov = 6±ε
6 ±ε
Acum = 6  
12   2
6 ±ε
18   3
6 ±ε
24   4
“Las neuronas que votan”
Neuronas en MT
Un clásico de la fisiología
Primer ensayo (cada punto representa un disparo)
Décimo ensayo (el estimulo es el mismo, la respuesta
ligeramente variable)
Potenciales de
acción (intensidad
de la repuesta
neuronal)
tiempo
Neuronas que codifican la cantidad y dirección de movimiento
Estas neuronas pueden dar un voto en favor de una decisión.
La magnitud del “voto” es proporcional a la cantidad de movimiento.
Neuronas en MT
Un clásico de la fisiología
Cada línea es un ensayo.
Las respuestas de las neuronas son
ruidosas y por lo tanto hay que
promediarlas. El experimentador
hace esto midiendo muchas veces.
Y un sujeto decidiendo: ¿Como
resuelve el ruido?
Promedio
Flucutuaciones
Potenciales de
acción (intensidad
de la repuesta
neuronal)
tiempo
Neuronas que codifican la cantidad y dirección de movimiento
Estas neuronas pueden dar un voto en favor de una decisión.
La magnitud del “voto” es proporcional a la cantidad de movimiento.
Neuronas en MT
Un clásico de la fisiología
Las neuronas responden
gradualmente a la
cantidad de movimiento.
Dan un voto “graduado”.
Neuronas de derecha.
Neuronas de izquierda
(no responden al movimiento
a la derecha)
Neuronas que codifican la cantidad y dirección de movimiento
Estas neuronas pueden dar un voto en favor de una decisión.
La magnitud del “voto” es proporcional a la cantidad de movimiento.
Neuronas en MT
Un clásico de la fisiología
En cada momento estas
neuronas reportan el
estado del presente
perceptual
Un codificador de movimiento provee el sustrato necesario
para decidir hacia donde se mueven los puntos
¿Falta algo?
“Las neuronas que integran
o acumulan el voto”
EL ACUMULADOR: Conteo de todos los votos en el
tiempo. Como los votos son ruidosos, esto resulta en un
random walk.
Neuronas en LIP
Integracion ruidosa:
Un random-walk forzado
integra (promedia en el
tiempo) la evidencia provista
por las neuronas de MT
Estimulo
Respuesta
Cuando se llega a suficiente evidencia ¿cuánto es suficiente?
Se ejecuta la decisión.
EL ACUMULADOR: Conteo de todos los votos en el
tiempo. Como los votos son ruidosos, esto resulta en un
random walk.
Neuronas en LIP
El proveedor y
el acumulador
de votos. ¿Hasta
cuando
acumulan?
Un Random Walk
forzado. La pendiente
indica el forzado y es
proporcional a la
coherencia. Cuanto mayor
la pendiente, se llega
antes al umbral y el
tiempo de respuesta es
menor.
El estimulo, luego de una latencia, empiezan a acumular.
EL ACUMULADOR: Conteo de todos los votos en el
tiempo. Como los votos son ruidosos, esto resulta en un
random walk.
Neuronas en LIP
Un Random Walk
forzado. La pendiente
indica el forzado y es
proporcional a la
coherencia. Cuanto mayor
la pendiente, se llega
antes al umbral y el
tiempo de respuesta es
menor.
   dt   t
 (   )dt    t  
El estimulo, luego de una latencia, empiezan a acumular.
t
Respuestas agrupadas en el momento de la
respuesta. Todas las respuestas se realizan
cuando el integrado neuronal llega al
umbral.
Existe de hecho otro
circuito que responde
en el momento que el
integrador alcanza el
umbral, lanzando la
respuesta. Para aquel
entonces –pese a que
uno no lo supiese – la
decision estaba
tomada.
Puede de hecho
manipularse una
decisión. ¿Se puede
hackear el codigo?
Poniendo a prueba la teoría:
¿Se puede forzar una decisión estimulando una neurona?
Estimulo en MT – Es “como si” cambiase la
evidencia con que se nutre al random walk.
Como si el detector de movimiento detectase
mayor coherencia. Resultado: Aumenta la
pendiente.
Poniendo a prueba la teoría:
¿Se puede forzar una decisión estimulando una neurona?
Estimulo en LIP – Es “como si” hubise salido,
en un instante de tiempo, una moneda a fovr
de una decisión. Resultado: Aumenta una
constante
random walks de probabilidades,
random walks de células T,
random walks de moléculas en solución,
random walks de acciones y subastas,
random walks de arenas y partículas sedimentadas,
¿mais que?
random walks de palabras, pensamientos.
El sueño: ¿tiene orden?
El tiempo como metafora del movimiento
Nos acercamos al final del cuatrimestre.
Se nos vienen las vacaciones.
EL FUTURO ESTA DELANTE Y EL PASADO DETRAS ¿o no?
Nuñez & Sweetser 2006
Universales no tan universales
“El tiempo antes”
In Aymara, the basic word for FRONT
(nayra, “eye/front/sight”) is also a basic expression meaning
PAST, and the basic word for
BACK (qhipa, “back/behind”) is a basic expression for
FUTURE meaning.
Nuñez & Sweetser 2006
Jugando a Jung, a
la manera de Jung
Neurotaller , Cordoba, Argentina 2007
La traza de una memoria, la forma del espacio de significados a partir de las
trayectorias
Intuición de la métrica: Signficicados que aparecen juntos (en
texto, en la web, en el discurso) están relacionados
Coche (in google): 1.410.000.000
Rueda (in google): 200.000.000
Coche (in google): 1.410.000.000
Física (in google): 182.000.000
Coche Y Rueda 2.000.000
Coche Y Física 400.000
Pcond – 1%
Pcond – 0.2%
Demostracion de que Maradona esta mas cerca de DIOS que
Pele.
Maradona (in google): 12,600,000
Dios (in google): 82,400,000
Pele (in google): 23,700,000
Dios (in google): 82,400,000
Dios AND Maradona 1.000.000
Dios AND Pele 500.000
Pcond – 0.1
Pcond – 0.02
http://www.diosmaradona.com.ar/
Frente a la evidencia … tres barrios del espacio de palabras
teclado
monitor
tecla
computadora
boton
dedo
brazo
cuello
durazno
naranja
manzana
cabeza
ojo
nariz
mano
cara
amanecer
quimica
fisica
pies
luz
electricidad noche
nucleo
sol
planeta
luna estrella
tecnologia
ciencia
atomo
molecula
astronomia
tierra
cielo
informatica
electron
proton
marte
banana
pera
aji
zanahoria
tomate
lechuga
La traza de una memoria, la forma del espacio de significados a partir de las
trayectorias
Understanding the dynamics of movement, the trace of the memory
160
“La distancia media entre dos
palabras al azar”
150
140
“La traza de un pensamiento”
(difusion acotada)
130
120
110
100
90
0
5
10
15
20
25
“Los ciclos”
Random-walking en el grafo semantico: La estructura de las trayectorias de
asociaciones libres
Si estoy en la palabra roja - ¿A Cual voy?
Posibilidad I: A cualquiera. El sueño de
Crick (Francis) alimentado por el ruido.
¿Como son los
saltos de las
asociaciones libres
en el espacio de
palabras?
¿Que forma tienen
las asociaciones
espontaneas,
bizarras, los sueños?
Posibilidad II: A las mas cercanas (saltos
determinista, con cierto ruido).
Posibilidad III: Compulsivo. Determinismo
total. Salto a la mas cercana.
Ruido (Temperatrua)
p
Understanding the navigation rules in the semantic graph
Compulsivo…
(a)
(b)
1
150
0.8
100
0.6
0.4
50
0.2
0
0
5
10
15
20
25
Distancias se
mantienen pequeñas
(no difunde)
0
0
5
10
15
20
Ciclo, ciclos
25
Understanding the navigation rules in the semantic graph
El sueño de Crick – todo al azar.
(a)
(b)
1
150
0.8
100
0.6
0.4
50
0.2
0
0
5
10
15
20
25
Perdida inmediata de
memoria
0
0
5
10
15
20
25
No hay ciclos
(probabilidad de
volver a la misma
palabra es casi cero)
Understanding the navigation rules in the semantic graph
Modelo 3
Modelo 3
160
0.2
140
0.15
120
0.1
0.05
Una ventana visible
de las 7
palabras mas cercanas
100
80
0
5
10
15
20
25
0
0.2
140
0.15
120
0.1
100
0.05
5
10
15
20
25
10
15
20
25
15
20
25
Modelo 2
160
0
5
N=7
Modelo 2
80
0
0
0
5
10
Modelo 1
Modelo 1
Dinamica
correcta
de
Prediccion
correcta
160
0.2
la perdida de
de la estructura de
140
0.15
memoria
ciclos
120
0.1
Diffusion (Random Walk)
Levy Flights
diffusing with short-cuts,
i.e. in a small world
0.18
0.16
0.14
Levy-flights
are the best
description of
free word
associations
0.12
0.1
0.08
0.06
0.04
0.02
0
0
5
10
15
20
25
Jugando el juego con robots de Levy-Flight (no patentables)