Download Tema: Razonamiento con Incertidumbre.

Document related concepts
no text concepts found
Transcript
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
1
Facultad: Ingeniería
Escuela: Computación
Asignatura: Sistemas Expertos e
Inteligencia Artificial
Tema: Razonamiento con Incertidumbre.
Objetivos Específicos

Comprender la importancia de la lógica clásica y la incertidumbre en la aplicación de la
Inteligencia Artificial.

Comprender el método de razonamiento e incertidumbre, que es un punto en el cual no
sabemos qué puede pasar, por lo que usando métodos probabilísticos tratamos de predecirlo.
Materiales y Equipo
 Guía Número 7.
 Computadora con programa Microsoft Visual C#.
Introducción Teórica
Todos los mecanismos de representación de conocimiento vistos están basados en la lógica bajo
estos supuestos:

Todo hecho sobre el que razonemos debe poder ser evaluado como cierto o falso.

Para poder razonar necesitamos tener todos los hechos a nuestra disposición.
Pero en la práctica nos encontramos con estos problemas:

Representar el conocimiento para cubrir todos los hechos que son relevantes para un
problema es difícil.

Existen dominios en los que se desconocen todos los hechos y reglas necesarias para
resolver el problema.

Existen problemas en los que aun teniendo las reglas para resolverlos no disponemos de
toda la información necesaria o no tenemos confianza absoluta en ellas.

En otros problemas las reglas no se aplican siempre o su confianza cambia con la
confianza que tenemos en los hechos.
2
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
En la guía anterior se describieron técnicas de representación del conocimiento y razonamiento
para un modelo del mundo completo, consistente e inalterable.
Sin embargo, en muchos dominios de interés no es posible crear tales modelos debido a la
presencia de incertidumbre: “Falta de conocimiento seguro y claro de algo”. (Diccionario RAE).
Razonamiento.
El razonamiento es una operación lógica mediante la cual, partiendo de uno o más juicios, se deriva
la validez, la posibilidad o la falsedad de otro juicio distinto. Por lo general, los juicios en que se basa
un razonamiento expresan conocimientos ya adquiridos o, por lo menos, postulados como hipótesis.
Los razonamientos pueden ser válidos (correctos) o no válidos (incorrectos). En general, se considera
válido un razonamiento cuando sus premisas ofrecen soporte suficiente a su conclusión.
Un razonamiento lógico, en definitiva, es un proceso mental que implica la aplicación de la lógica. A
partir de esta clase de razonamiento, se puede partir de una o de varias premisas para arribar a una
conclusión que puede determinarse como verdadera, falsa o posible.
Razonamiento No Lógico.
No sólo se basa en premisas con una única alternativa correcta (razonamiento lógico-formal, el
descrito anteriormente), sino que es más amplio en cuanto a soluciones, basándose en la experiencia
y en el contexto. Los niveles educativos más altos suelen usar el razonamiento lógico, aunque no es
excluyente.
Ejemplo: clasificación de alimentos, el de tipo lógico-formal los ordenará por verduras, carnes,
pescados, fruta, etc. en cambio el tipo informal lo hará según lo ordene en el refrigerador, según lo
vaya cogiendo de la tienda, etc.
Hasta ahora se ha manejado conocimiento categórico: conocimiento siempre era verdadero o falso.
Razonamiento “exacto” (reglas, hechos y conclusiones no ambiguos).
En el “mundo real”, el conocimiento es dudoso y/o incompleto; el sistema inteligente puede no tener
acceso a toda la información necesaria; el razonamiento es inexacto (hechos y/o reglas inciertas).
Incertidumbre.
Falta de información adecuada para tomar una decisión o realizar un razonamiento. Puede impedir
llegar a una conclusión correcta.
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
3
Principio de incompatibilidad de Zadeh: “A medida que aumenta la complejidad de un sistema, nuestra
capacidad para hacer afirmaciones sobre su comportamiento que sean precisas y, al mismo tiempo,
significativas, va disminuyendo, hasta alcanzar un umbral por debajo del cual precisión y significación
(o pertinencia) llegan a ser características casi mutuamente excluyentes”.
Proposición incierta: su valor de verdad o falsedad no se conoce o no se puede determinar.
Proposición imprecisa: aquella referida a una variable cuyo valor no puede determinarse con exactitud
Por lo tanto, una proposición incierta puede ser precisa; una proposición imprecisa puede no ser
incierta.
Ejemplo:
 x tieneFiebre (x) → tieneGripe (x)
No es necesariamente cierto en todos los casos. Una persona con fiebre puede tener catarro,
bronquitis, etc.
Una forma “más correcta” (pero poco útil) seria:
 x tieneFiebre (x) → tieneGripe (x) ∨ tieneCatarro (x) ∨ tieneBronquitis (x) ∨ ...
Otro ejemplo:
 x fiebreAlta (x) ∧ dolorMuscula r(x) → tieneGripe (x)
 x fiebreAlta (x) ∧ dolorMuscular (x) → tieneEbola (x)
¿A cuál de las dos “reglas” habría que hacer más caso?
Ejemplo de imprecisión:
 x frenteMuyCaliente (x) → fiebreAlta (x)
¿Cuándo es verdadero o falso el antecedente?
Por ello, también podemos hacer las siguientes definiciones:
Grado de creencia: En la incertidumbre, la proposición es verdadera o es falsa, sólo que no se sabe.
Grado de verdad: En la imprecisión sabemos que la variable tiene un valor, pero no lo conocemos
(subjetivo).
El grado de creencia es otra forma de expresar el conocimiento. Por ejemplo: creemos, basándonos
en nuestras percepciones, que un paciente que tenga dolor de muelas, tiene caries con una
probabilidad del 80 %.
4
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
En teoría de la probabilidad, se expresa como P (Caries = true | Dolor = true) = 0,8
La probabilidad expresa el grado de creencia, no el grado de verdad. Por tanto, la probabilidad puede
cambiar a medida que se conocen nuevas evidencias. La teoría de la probabilidad servirá como medio
de representación del conocimiento incierto.
Fuentes de incertidumbre.
Con respecto a los hechos:
 Ignorancia

Puede que en un determinado campo el conocimiento sea incompleto. Por ejemplo en el
campo de las Ciencias Médicas.

Aunque se pudiera completar el conocimiento, puede ser necesario tomar decisiones con
información incompleta. Ejemplo: un paciente llega con gravedad a urgencias y es necesario
proponer un tratamiento sin que sea posible realizar todos los tests necesarios para saber
con total exactitud su enfermedad.

En otros campos la ignorancia es irreducible
Presente en modelos físicos, ejemplo: ¿Cuál será el resultado del lanzamiento de una
moneda?
Presente en la vida real, ejemplo: ¿Es la otra persona sincera?
 Vaguedad e Imprecisión

Algunos conceptos son vagos o imprecisos, ejemplo: las personas altas, guapas, felices etc.
Con respecto a las reglas:
Las reglas son generalmente heurísticas que utilizan los expertos en determinadas situaciones.
En el mundo real utilizamos habitualmente reglas que son:
 Inexactas o incompletas
“Si es un ave entonces vuela”, ¿y los pingüinos?
“Si te duele la cabeza tienes gripe” ¿y si te diste un golpe?
 Imprecisas
“Si el agua está caliente añada un poco de sal”
 Inconsistentes
“Al que madruga Dios le ayuda”
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
5
“No por mucho madrugar amanece más temprano”
Razonamiento con incertidumbre.
Objetivo: Ser capaz de razonar sin tener todo el conocimiento relevante en un campo determinado
utilizando lo mejor posible el conocimiento que se tiene.
Asociar a los elementos del formalismo de representación, información adicional (normalmente
valores numéricos) que indique su grado de certeza y manejar esa información en las inferencias.
Implementación:
Es difícil cumplir estos requerimientos utilizando la lógica de primer orden
Deben de introducirse modelos para manejar información vaga, incierta, incompleta y contradictoria.
Crucial para que un sistema funcione en el “mundo real”.
El propósito último de un sistema inteligente es actuar de forma óptima utilizando el conocimiento del
sistema y un conjunto de percepciones. Para actuar se necesita decidir qué hacer. ¿Cuál es la forma
correcta de decidir?
La decisión racional: cuando se tienen distintas opciones un sistema debe decidirse por aquella acción
que le proporcione el mejor resultado.
Cuando hay incertidumbre para poder decidir racionalmente se requiere:

La importancia de los distintos resultados de una acción.

La certidumbre de alcanzar esos resultados cuando se realiza la acción.
Cuestiones a resolver por las aproximaciones a la Incertidumbre:
 ¿Cómo evaluar la aplicabilidad de las condiciones de las reglas?
Si X es mayor necesita gafas. ¿Se puede aplicar la regla si X tiene 40 años?
 ¿Cómo combinar hechos imprecisos?
X es alto, X es rubio. ¿Con que certidumbre puedo afirmar que X es alto y rubio?
 Dado un hecho impreciso y una regla imprecisa: ¿qué confianza se puede tener en las
conclusiones?
X estudia mucho. Si X estudia mucho aprobará
¿Con que certidumbre puedo afirmar que X aprobará?

6
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
 Dada la misma conclusión incierta de varias reglas: ¿qué confianza se puede tener en la
conclusión?
Juan llega tarde, Luis llega tarde.
Si Juan llega tarde la carretera está cortada.
Si Luis llega tarde la carretera está cortada.
¿Cuál es la certidumbre de que la carretera esté cortada?
Inicialmente la mayoría de los investigadores en IA enfatizaban la importancia del razonamiento
simbólico y evitaban la utilización de números. Los sistemas expertos no deben usar números puesto
que los expertos humanos no lo hacen. Los expertos no pueden suministrar los números requeridos.
Sin embargo los ingenieros que desarrollaban las aplicaciones se dieron cuenta pronto de la
necesidad de representar la incertidumbre. El sistema experto MYCIN (años 70) para el tratamiento
de infecciones bacterianas fue el primer éxito en este campo.
Los métodos numéricos (especialmente los basados en probabilidad) son actualmente una
herramienta aceptada en IA debido a los éxitos prácticos y a la complejidad de las teorías alternativas.
Manejo de la Incertidumbre.
Se han desarrollado diversas técnicas para manejo de incertidumbre en sistemas inteligentes, que
podemos dividir en dos grandes grupos:

Técnicas simbólicas (no numéricas).

Técnicas numéricas.
Entre las técnicas simbólicas tenemos:
 Lógicas no monotónicas.
Como la LPO (Lógica de Primer Orden) asume que el conocimiento es completo y consistente,
una vez que un hecho se asume/es cierto permanece así (Monotonía). Por ejemplo: si de una
Base de Conocimiento (BC) se deduce una expresión “s”, y se tiene otra Base de conocimiento
BC’ de forma que BC  BC’, entonces de BC’ también se deduce s. Por tanto el añadir nuevo
conocimiento siempre incrementa el tamaño de la Base de Conocimiento.
La presencia de conocimiento incompleto nos lleva a modelos no monótonos:
El conocimiento de nuevos hechos puede hacer que nos retractemos de algunas de nuestras
creencias. Ejemplo: Generalmente voy a la Universidad en bus. Veo en el periódico que hay
huelga. Tengo que retractar que voy a la Universidad en bus.
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
7
 Lógicas por defecto.
Propuesta por Reiter para solucionar el problema del conocimiento incompleto (1980). Para
ello se introducen una serie de reglas por defecto. Intuitivamente: “Las reglas por defecto
expresan características comunes a un conjunto de elementos que se asumen ciertas salvo
que se indique lo contrario”.
 Lógicas basadas en modelos mínimos.
Asunción del mundo cerrado: Sirve para manejar conocimiento incompleto. Intuitivamente: “Lo
que no se puede probar a partir de mi Base de Conocimiento es falso”. Es utilizado en las
bases de datos y Prolog.
Inconvenientes: Teorías complejas y a veces inconsistentes.
Entre las técnicas numéricas tenemos:
 Modelos estadísticos-probabilísticos.
 Modelo aproximado.
 Modelo de lógica difusa.
Modelos estadísticos-probabilísticos.
Los modelos probabilistas se basan en la teoría de la probabilidad. Las probabilidades se utilizan
para modelizar nuestra creencia sobre los posibles valores que pueden tomar los hechos. Cada
hecho tendrá una distribución de probabilidad asociada que nos permitirá tomar decisiones. La
probabilidad de un hecho podrá ser modificada por nuestra creencia en otros hechos que estén
relacionados.
La probabilidad “resume” en un número la incertidumbre respecto a un hecho. Son modelos
teóricos sólidos y bien conocidos para manejar incertidumbre. Ofrece un lenguaje formal para
representar conocimiento incierto y mecanismos para razonar con él.
Pero tiene los siguientes problemas:
o
En ocasiones poco intuitivo. En algunos dominios puede no ser “natural” pensar en
términos de probabilidades
o
Restrictivo.
Para
su
aplicación
práctica
necesita
asumir
ciertas
propiedades
(independencia entre variables aleatorias) que no siempre se ajustan a la realidad.
La teoría de la probabilidad es un área de las Matemáticas que ha sido aplicada a problemas de
razonamiento con incertidumbre. Es una teoría elegante, bien entendida y con mucha historia
8
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
(formalizaciones a partir de mediados del siglo XVII). Asigna valores numéricos (llamados
probabilidades) a las proposiciones. Nos dice, dadas las probabilidades de ciertas proposiciones, y
algunas relaciones entre ellas como asignar probabilidades a las proposiciones relacionadas.
Relación con la LPO: En la LPO las proposiciones son ciertas o falsas. Con la teoría de la probabilidad,
las proposiciones son también ciertas o falsas pero se tiene un grado de creencia en la certeza o
falsedad.
La técnica más antigua y mejor definida para manejar la incertidumbre es la Regla de Bayes, la misma
que está basada en la teoría clásica de la probabilidad Las hipótesis son más o menos probables
dependiendo de las posibilidades de los hechos o evidencias que las sostiene. Las probabilidades se
calculan en base a la fórmula general de la probabilidad condicionada de Bayes o algunas
transformaciones de la misma.
Fue propuesta en 1763 por el matemático y reverendo británico Thomas.Bayes.
Para poder comprender la técnica, recordaremos algunos conceptos estadísticos y de probabilidad.
El elemento básico de teoría de probabilidades es la variable aleatoria.
Una variable aleatoria tiene un dominio de valores, podemos tener variables aleatorias booleanas,
discretas o continuas.
Definiremos una proposición lógica como cualquier fórmula en lógica de enunciados o predicados.
Una proposición lógica tendrá asociada una variable aleatoria que indicará nuestro grado de creencia
en ella.
Una variable aleatoria tendrá asociada una distribución de probabilidad (la probabilidad para
cada valor que pueda tomar). Consiste en listar los valores de probabilidad para cada valor de la
variable. La forma de expresar esta distribución de probabilidad dependerá del tipo de variable
aleatoria (Discretas: Binomial, Multinomial,…, Continuas: Normal, 2,...).
Ejemplo: Distribución de probabilidad de la variable “Llueve”:
La unión de variables aleatorias se puede describir mediante una distribución de probabilidad
conjunta.
Ejemplo: distribución conjunta de las variables “Sabe_Concepto” y “Resuelve_Ejercicio”,
P(Sabe_Concepto, Resuelve_Ejercicio)
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
9
Observemos que nos recuera a la tabla de verdad lógica, excepto que:
o
Describe las probabilidades para cada combinación de valores de las variables.
o
Generalmente dichos valores no se pueden calcular a partir de sus componentes.
Denotaremos como P (a) la probabilidad de que la proposición (variable aleatoria) A tenga el valor
a. Por ejemplo, la proposición Fumar puede tener los valores {fumar, ¬fumar}, P (¬fumar) es la
probabilidad de la proposición Fumar = ¬fumar
Denotaremos como P (A) al vector de probabilidades de todos los posibles valores de la
proposición A
Definiremos como probabilidad a priori (P (a)) asociada a una proposición como el grado de
creencia en ella a falta de otra información.
Definiremos como probabilidad a posteriori o condicional (P (a | b)) como el grado de creencia
en una proposición tras la observación de proposiciones asociadas a ella. La podemos interpretar
como mi grado de creencia en “a” cuando todo lo que sé es “b”. O de otra forma alternativa, de
los casos en los que se da “b”, ¿en qué proporción se da “a”?
La probabilidad a posteriori se puede definir a partir de probabilidades a priori como:
Esta fórmula se puede transformar en lo que denominaremos la regla del producto:
P (a  b) = P (a | b) P (b) = P (b | a) P (a)
10
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
Los axiomas de la probabilidad serán el marco que restringirá las cosas que podremos creer y
deducir.
Toda probabilidad está en el intervalo [0, 1]
La proposición cierto tiene probabilidad 1 y la proposición falso tiene probabilidad 0.
P (cierto) = 1
P (falso) = 0
La probabilidad de la disyunción se obtiene mediante la fórmula:
Nos permite conocer la probabilidad de que se tomen unos determinados valores por un conjunto
de variables aleatorias cuando se saben los valores que han tomado otras.
Ejemplo: P (Resuelve_Ejercicio | Sabe_Concepto)
Las leyes de la probabilidad permiten establecer diferentes métodos de inferencia:
Marginalización: Probabilidad de una proposición atómica con independencia de los valores del
resto de proposiciones
Probabilidades condicionadas: Probabilidad de una proposición dados unos valores para
algunas proposiciones e independiente del resto de proposiciones (a partir de la regla del
producto)
El valor  es un factor de normalización que corresponde a factores comunes que hacen que las
probabilidades sumen 1.
Ejemplo:
Consideremos un problema en el que intervengan las proposiciones:
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
11
Fumador = {fumador, ¬fumador}, Sexo = {varón, mujer},
Enfisema = {enfisema, ¬enfisema}
Y la siguiente tabla de probabilidades:
Entonces, pueden encontrarse los siguientes cálculos:
P (enfisema  varón) = 0,2 + 0,02
P (fumador  mujer) = 0,2 + 0,1 + 0,05 + 0,05 + 0,02 + 0,33
P (Fumador | enfisema) = (P (fumador, enfisema, varón) + P (fumador, enfisema, mujer),
P (¬fumador, enfisema, varón) + P (¬fumador, enfisema, mujer))
=  (0,3, 0,04)
= (0,88, 0,12)
Hacer estos procesos de inferencia requiere almacenar y recorrer la distribución de probabilidad
conjunta de todas las proposiciones. Suponiendo proposiciones binarias el coste en espacio y
tiempo es O (2n) siendo n el número de proposiciones. Para cualquier problema real estas
condiciones son impracticables. Necesitamos mecanismos que nos simplifiquen el coste del
razonamiento.
Por lo general no todas las proposiciones que aparecen en un problema están relacionadas entre
sí. Muestran la propiedad que denominaremos independencia probabilística.
Esto quiere decir que unas proposiciones no influyen en las otras y por lo tanto podemos reescribir
sus probabilidades como:
P (X | Y) = P (X);
P (Y | X) = P (Y);
P(X, Y) = P (X) P (Y)
Dadas estas propiedades podremos reescribir las probabilidades conjuntas de manera más
compacta reduciendo la complejidad.
Regla de Bayes.
Hemos enunciado la regla del producto como:
P (X, Y) = P (X | Y) P (Y) = P (Y | X) P (X)
12
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
Esto nos lleva a lo que denominaremos la regla de Bayes:
De forma intuitiva, la probabilidad de una hipótesis “X” dada una evidencia “Y”: P (X | Y) es
proporcional a la probabilidad de la hipótesis P (X) multiplicada por el grado en que la hipótesis
predice los datos P (Y | X).
Esta regla es útil para calcular la probabilidad de un diagnóstico a partir de una probabilidad
causal:
P (Causa | Efecto) =
P (Efecto | Causa) P (Causa)
P (Efecto)
Esta regla y la propiedad de independencia serán el fundamento del razonamiento probabilístico
y nos permitirá relacionar las probabilidades de unas evidencias con otras.
Suponiendo que podemos estimar exhaustivamente todas las probabilidades que involucran
todos los valores de la variable “Y” podemos reescribir la fórmula de Bayes como:
P (Y | X) =  P (X | Y) P (Y)
Suponiendo independencia condicional entre dos variables podremos escribir:
P (X, Y | Z) = P (X | Z) P (Y | Z)
De manera que:
P (Z | X, Y) =  P (X, Y | Z) P (Z) =  P (X | Z) P (Y | Z) P (Z)
Por ejemplo:
En esta regla es que se fundamentan las redes bayesianas.
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
13
Forma general de la Regla de Bayes.
Si se tiene un conjunto de proposiciones {A1, A2,…, Am} completas y mutuamente excluyentes se
tiene:
O lo que es lo mismo, si tiene una variable aleatoria “A” con valores a1, a2,…, am
Esto da origen a la inferencia Bayesiana (Teorema de Bayes):
Este teorema modela la probabilidade de que un suceso “Ei” sea debido a una causa (hipótesis)
Hj. Las causas Hj tienen que ser mutuamente excluyentes. La ecuación se modifica para
combinar evidencias (E2 “se produce despúes” de E1).
Las redes bayesianas se forman combinando una serie de pasos de inferencia bayesiana, a modo
de una red de causas – “red causal”.
Procedimiento
Ejemplo 1. En este ejemplo mostraremos el uso de la regla de Bayes.
Se pretende determinar si un alumno conoce un concepto en base a la resolución de un ejercicio.
En este caso:
Hipótesis (SC): Sabe_Concepto (variable aleatoria con dos valores verdadero y falso)
Evidencia (RE): Resuelve_Ejercicio (variable aleatoria con dos valores positivo y negativo)
Los datos son:
14
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
Aplicando la Regla de Bayes:
P (sc | re) = P (re | sc) P (sc) / (P (re | sc) P (sc) + P (re | ¬ sc) P (¬ sc))
= [(0.76) * (0.80)] / [(0.76) * (0.80) + (0.18) * (0.20)]
= 0.95
Entonces:
P (¬ sc | re) = 0.05
Al elegir la hipótesis más probable debemos concluir que si resuelve el ejercicio sabe el concepto.
La red asociada es:
¿Y si hay varios ejercicios E1,..., Em?
Supondremos que cada ejercicio RE1, RE2,..., REm es una variable aleatoria que indica si se
resuelve con dos valores: verdadero y falso.
Entonces si queremos calcular la probabilidad de que el alumno sepa el concepto necesitamos
calcular:
P (SC | E1, RE2, ..., REm) = P (RE1,,..., REm | SC) P (SC) / P (RE1,RE2,...,REm)
Si al alumno se le hace un conjunto de 7 ejercicios:
Entonces para almacenar la tabla de probabilidad conjunta P (RE1, RE2,..., REm | SC) se necesitan
guardar unos 27 números reales (aproximadamente un DVD por alumno).
¿De donde sacamos los números? ¿Cómo hacemos los cálculos computacionalmente eficientes?
Una solución sería utilizar la independencia probabilística explicada anteriormente.
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
15
Análisis de resultados
Tomando como referencia la información presentada en la guía y en el ejemplo No.1,
implementar un simulador (en entorno de Windows Forms) para el agente basado en el
razonamiento con incertidumbre que resuelva el problema planteado a continuación.
Un centro médico tiene una base de datos consistente en las historias clínicas de N = 1,000
pacientes. Estas historias clínicas se resumen gráficamente en la figura siguiente:
Hay 700 pacientes (la región sombreada) que tienen la enfermedad adenocarcinoma gástrico
(G), y 300 que no la tienen (se considera estar sano como otro valor posible de la enfermedad).
Tres síntomas, dolor (D), pérdida de peso (P) y vómitos (V), se considera que están ligados a
esta enfermedad. Por tanto, cuando un paciente nuevo llega al centro médico, hay una
probabilidad 700/1000 = 70% de que el paciente tenga adenocarcinoma gástrico. Esta es la
probabilidad inicial, o “a priori”, puesto que se calcula con la información inicial, es decir, antes
de conocer información alguna sobre el paciente.
Por simplicidad de notación, se utiliza “g” para indicar que la enfermedad está presente y ¬g
para indicar que la enfermedad está ausente. Notaciones similares se utilizan para los síntomas.
Por tanto, pueden hacerse las afirmaciones siguientes:
Probabilidad “a priori”: 440 de 1,000 pacientes vomitan. Por ello, p (v) = card (v) / N =
440 / 1000 = 0.44, donde card (v) denota el número de pacientes de la base de datos
que vomitan. Esto significa que el 44 % de los pacientes vomitan.
Verosimilitud: El 50 % de los pacientes que tienen la enfermedad vomitan, puesto que
p (v | g) = card (v, g) / card (g) = 350 / 700 = 0.5, mientras que sólo 30 % de los pacientes
que no tienen la enfermedad vomitan, puesto que p (v | ¬g) = card (v, ¬g) / card(¬g) = 90
16
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
/ 300 = 0.3.
Verosimilitud: El 45 % de los pacientes que tienen la enfermedad vomitan y pierden peso,
P (v, p | g) = card (v, p, g) / card (g) = 315 / 700 = 0.45, mientras que sólo el 12 % de los
que no tienen la enfermedad vomitan y pierden peso,
p (v, p | ¬g) = card (v, p, ¬g) / card (¬g) = 35 / 300 ≈ 0.12.
Puesto que la probabilidad inicial de que el paciente tenga adenocarcinoma gástrico, p (g) = 0.7,
no es suficientemente alta para hacer un diagnóstico (observe que tomar una decisión ahora
implica una probabilidad 0.3 de equivocarse), el doctor decide examinar al paciente para obtener
más información.
Supóngase que los resultados del examen muestran que el paciente tiene los síntomas vómitos
(V = v) y pérdida de peso (P = p). Ahora, dada la evidencia (el paciente tiene esos síntomas),
¿cuál es la probabilidad de que el paciente tenga la enfermedad? Esta probabilidad “a posteriori”
puede ser obtenida de la probabilidad “a priori” y de las verosimilitudes, aplicando el teorema de
Bayes.
Debe elaborarse el simulador, implementando el razonamiento con incertidumbre utilizando el
teorema de Bayes.
El simulador debe ser capaz de dar un diagnóstico en base a los síntomas que se le indiquen a
través de los datos introducidos por el usuario.
Considerar todas las validaciones necesarias.
Investigación Complementaria
Para la siguiente semana:
Investigar sobre las enfermedades transmitidas por el zancudo, específicamente las que están
afectando actualmente a nivel mundial: Chikungunya, Dengue y Zika.
Ampliar la funcionalidad del agente basado en el razonamiento con incertidumbre elaborado durante
la práctica, de tal manera que sea capaz de dar un diagnóstico a un paciente en base a los síntomas
presentados (introducidos al sistema por el usuario). La solución debe implementarse aplicando el
razonamiento con incertidumbre utilizando el teorema de Bayes.
Considerar todas las validaciones necesarias.
17
Sistemas Expertos e Inteligencia Artificial. Guía No. 7
Guía 7: Razonamiento con Incertidumbre.
Alumno:
Hoja de cotejo:
7
Máquina No:
GL:
Docente:
Fecha:
EVALUACIÓN
%
CONOCIMIENTO
Del 20
al 30%
APLICACIÓN
DEL
CONOCIMIENTO
Del 40%
al 60%
ACTITUD
Del 15%
al 30%
TOTAL
100%
1-4
5-7
8-10
Conocimiento
deficiente
de los
fundamentos
teóricos
Conocimiento
y explicación
incompleta de
los
fundamentos
teóricos
Conocimiento
completo y
explicación
clara de los
fundamentos
teóricos
No tiene
actitud
proactiva.
Actitud
propositiva y
con
propuestas no
aplicables al
contenido de
la guía.
Tiene actitud
proactiva y
sus propuestas
son concretas.
Nota