Download Inteligencia artificial

Document related concepts

Red neuronal artificial wikipedia , lookup

Historia de la inteligencia artificial wikipedia , lookup

Inteligencia artificial simbólica wikipedia , lookup

Inteligencia artificial wikipedia , lookup

Aplicaciones de la inteligencia artificial wikipedia , lookup

Transcript
-Inteligencia artificial:
Se denomina inteligencia artificial a la rama de la ciencia
informática dedicada al desarrollo de agentes racionales no
vivos.
Para explicar la definición anterior, entiéndase a un agente
como cualquier cosa capaz de percibir su entorno (recibir
entradas), procesar tales percepciones y actuar en su entorno
(proporcionar salidas). Y entiéndase a la racionalidad como la
característica que posee una elección de ser correcta, más
específicamente, de tender a maximizar un resultado esperado.
Por lo tanto, y de manera más específica la inteligencia
artificial es la disciplina que se encarga de construir procesos
que al ser ejecutados sobre una arquitectura física producen
acciones o resultados que maximizan una medida de
rendimiento determinada, basándose en la secuencia de
entradas percibidas y en el conocimiento almacenado en tal
arquitectura.
Existen distintos tipos de conocimiento y medios de
representación del conocimiento. El cual puede ser cargado en
el agente por su diseñador o puede ser aprendido por el mismo
agente utilizando técnicas de aprendizaje.
También se distinguen varios tipos de procesos válidos para
obtener resultados racionales, que determinan el tipo de
agente inteligente. De más simples a más complejos, los cinco
principales tipos de procesos son:
•
•
•
•
•
Ejecución de una respuesta predeterminada por cada
entrada (análogas a actos reflejos en seres vivos).
Búsqueda del estado requerido en el conjunto de los
estados producidos por las acciones posibles.
Algoritmos genéticos (Análogo al proceso de evolución de
las cadenas de ADN).
Redes neuronales artificiales (Análogo al funcionamiento
físico del cerebro de animales y humanos).
Razonamiento mediante una Lógica formal (Análogo al
pensamiento abstracto humano).
También existen distintos tipos de percepciones y acciones,
pueden ser obtenidas y producidas, respectivamente por
sensores físicos y sensores mecánicos en máquinas, pulsos
eléctricos u ópticos en computadoras, tanto como por entradas
y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de
sistemas, planificación automática, la habilidad de responder a
diagnósticos
y
a
consultas
de
los
consumidores,
reconocimiento de escritura, reconocimiento del habla y
reconocimiento de patrones. Los sistemas de IA actualmente
son parte de la rutina en campos como economía, medicina,
ingeniería y la milicia, y se ha usado en gran variedad de
aplicaciones de software, juegos de estrategia como ajedrez de
computador y otros videojuegos.
-Historia:
Las ideas más básicas se remontan a los griegos, antes de
Cristo. Aristóteles (384-322 a.C.) fue el primero en describir un
conjunto de reglas que describen una parte del funcionamiento
de la mente para obtener conclusiones racionales, y Ktesibios
de Alejandría (250 a.C.) construyó la primera máquina
autocontrolada, un regulardor del flujo de agua (racional pero
sin razonamiento).
En 1315 d.C Ramón Lull tuvo la idea de que el razonamiento
podía ser efectuado de manera artificial.
En 1943 Warren McCulloch y Walter Pitts presentaron su modelo
de neuronas artificiales, el cual se considera el primer trabajo
del campo, aún cuando todavía no existía el término. Los
primeros avances importantes comenzaron a principios de los
años 1950 con el trabajo de Alan Turing, a partir de lo cual la
ciencia ha pasado por diversas situaciones.
En 1956 fue inventado el término inteligencia artificial por John
McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de
Dartmouth , un congreso en el que se hicieron previsiones
triunfalistas a diez años que jamás se cumplieron, lo que
provocó el abandono casi total de las investigaciones durante
quince años.
El matemático sudafricano, Seymour Papert,
considerado pionero en esta ciencia.
también es
En 1980 la historia se repitió con el desafío japonés de la quinta
generación de computadoras, que dio lugar al auge de los
sistemas expertos pero que no alcanzó muchos de sus objetivos,
por lo que este campo sufrió una nueva interrupción en los
años noventa.
En la actualidad se está tan lejos de cumplir la prueba de Turing
como cuando se formuló: Existirá Inteligencia Artificial cuando
no seamos capaces de distinguir entre un ser humano y un
programa de computadora en una conversación a ciegas.
Como anécdota, muchos de los investigadores sobre IA
sostienen que "la inteligencia es un programa capaz de ser
ejecutado independientemente de la máquina que lo ejecute,
computador o cerebro".
En 2006 se celebró el 50 aniversario de la IA en Dartmouth con
la AI@50 "Dartmouth Artificial Intelligence Conference: The
Next Fifty Years". También el Campus Multidisciplinar en
Percepción e Inteligencia de Albacete 2006 fué el único evento en
español que lo celebró, con ponentes como Rodolfo Llinás o José
Mira Mira.
-Inteligencia
emociones:
artificial
y
El concepto de Inteligencia Artificial es aún demasiado difuso.
Contextualizando, y teniendo en cuenta un punto de vista
científico, podríamos englobar a esta ciencia como la
encargada de imitar una persona, y no su cuerpo, sino imitar al
cerebro, en todas sus funciones, existentes en el humano o
inventadas sobre el desarrollo de unamáquina inteligente.
A veces, aplicando la definición de Inteligencia Artificial, se
piensa en máquinas inteligentes sin emociones, que
"obstaculizan" encontrar la mejor solución a un problema dado.
Muchos pensamos en dispositivos artificiales capaces de
concluir miles de premisas a partir de otras premisas dadas,
sin que ningún tipo de emoción tenga la opción de obstaculizar
dicha labor.
En esta línea, hay que saber que ya existen sistemas
inteligentes. Capaces de tomar decisiones "acertadas".
Aunque, por el momento, la mayoría de los investigadores en el
ámbito de la Inteligencia Artificial se centran sólo en el aspecto
racional, muchos de ellos consideran seriamente la posibilidad
de incorporar componentes “emotivos”, a fin de aumentar la
eficacia de los sistemas inteligentes.
Particularmente para los robots móviles, es necesario que
cuenten con algo similar a las emociones con el objeto de saber
–en cada instante y como mínimo qué hacer a continuación.
Al
tener
“emociones”
y,
al
menos
potencialmente,
“motivaciones”,
podrán actuar de
acuerdo
con
sus
“intenciones”. Así, se podría equipar a un robot con
dispositivos que controlen su medio interno; por ejemplo, que
“sientan hambre” al detectar que su nivel de energía está
descendiendo o que “sientan miedo” cuando aquel esté
demasiado bajo.
Esta señal podría interrumpir los procesos de alto nivel y
obligar al robot a conseguir el preciado elemento. Incluso se
podría introducir el “dolor” o el “sufrimiento físico”, a fin de
evitar las torpezas de funcionamiento como, por ejemplo,
introducir la mano dentro de una cadena de engranajes o saltar
desde una cierta altura, lo cual le provocaría daños
irreparables.
En síntesis, lo racional y lo emocional están de tal manera
interrelacionados entre sí, que se podría decir que no sólo no
son aspectos contradictorios sino que son –hasta cierto punto
complementarios.
-LA INTELIGENCIA ARTIFICIAL
TOMA FORMA HUMANA:
¿Es o no es una persona real? La duda persiste aunque nos
acerquemos a la pantalla y analicemos cada uno de sus
movimientos al milímetro. Un Vi-clone es tan parecido a una
persona, que resulta difícil creer que en realidad no es más que
un conjunto de píxeles en movimiento en una pantalla.
El director de Vi-clone Corp., Rudy Bianco, asegura que
“analizando las preguntas que le hacían a una vi-clone que se
ha instalado en la página web de una clínica de cirugía
estética, vimos que la gente le hacía preguntas del tipo ¿qué
haces hoy cuando salgas del trabajo?". Obviamente la Vi-clone
declinaba el ofrecimiento, pero la anécdota es ilustrativa.
Los vi-clones son la nueva apuesta de la realidad virtual, y
están al servicio de las empresas que los quieran usar como
embajadores de su marca de cara al cliente. No se enfadan, no
se inquietan, siempre dan un buen servicio y su aspecto
siempre está listo para revista. Además, trabajan las 24h de los
365 días del año, y sin cansarse. Desde el punto de vista de los
costes, por tanto, parece que la inversión en un vi-clone
debería resultar rentable, pero todo depende del gasto que
una empresa quiera emplear en atención al cliente.
La cuarta generación:
Según explica Rudy Bianco, “Vi-clone es la cuarta generación
de una tecnología que se empezó a estudiar en 1999 a partir de
una experiencia de interactividad pensada para el Círculo de
Lectores, y que obtuvo un éxito rotundo desde los primeros
días de su aplicación”. Por tanto, estos “Virtual Clones” surgen
de varios años de investigación de los mercados y de estudiar
las posibilidades de la interacción con los clientes.
La tecnología actual de los Vi-clones está basada en algoritmos
de
inteligencia
artificial
que
consiguen
simular
el
entendimiento humano, de manera que “parece que piensan
por sí mismos”, explica Bianco.
De momento ya existen varias empresas que se han decidido a
instalar un Vi-Clone, como la clínica especializada en cirugía
estética y plástica Instituto de Benito o la alimentaria Sunny
Delight. La eficacia de los Vi-Clones también se ha puesto a
prueba en eventos tan multitudinarios como el Barcelona
Meeting Point o la feria tecnológica SIMO de Madrid, donde se
instalaron diferentes Vi-Clone Point –terminales con un ViClone integrado- que hicieron la función de punto de
información del salón y ahorraron a los visitantes tener que
usar mapas del recinto.
-AEPIA:
La Asociación Española para la Inteligencia Artificial (AEPIA) se
creó en 1983 para potenciar y fomentar el desarrollo de la
Inteligencia Artificial tanto en el ámbito español como en el
Iberoamericano. Es miembro de ECCAI (European Coordinating
Committee for Artificial Intelligence), miembro fundador de la
Confederación Española de Asociaciones Científicas (COSCE) y
miembro fundador de IBERAMIA. AEPIA organiza bienalmente la
Conferencia Española de la Asociación junto con las Jornadas
de Transferencia de Tecnología y en los años alternos coorganiza IBERAMIA, la conferencia Iberoamericana de
Inteligencia Artificial con la colaboración de otras asociaciones
de diferentes países iberoamericanos. AEPIA también patrocina
las Conferencias Españolas de Informática (CEDI), desde su
primera edición en 2005.
Entre los fines de la AEPIA se encuentran la creación y
coordinación de grupos de trabajo, el apoyo a la transferencia
de tecnología, el apoyo a entidades (universidades, centros de
I+D+i, empresas, instituciones, etc.) para facilitar su
innovación y aplicación de las técnicas y aplicaciones de la
Inteligencia Artificial, proporcionar un soporte y foro de
discusión a investigadores y estudiantes en sus actividades
relacionadas con la Inteligencia Artificial, desde los aspectos
de investigación científica y tecnológica, desarrollo, aplicación
y docencia.
Desde 1997 la difusión de las actividades se realiza
mayormente mediante la revista de la asociación (Revista
Iberoamericana de Inteligencia Artificial), que publica cuatro
números por año con una tirada media de 450 ejemplares.
Adicionalmente, por medio de AEPIA se coordina la lista de
distribución en Inteligencia Artificial INT-ARTIF (soportada por
RED-IRIS).
La "Asociación Española para la Promoción de la Inteligencia
Artificial (AEPIA)" se haya inscrita en el Registro Nacional de
Asociaciones (Ministerio de Interior), con fecha 31 de Agosto
de 1984, en su sección 1ª, con los números 56.171 y 6.169,
nacional y provincial respectivamente.
-OBJETIVOS
DE
LA
INTELIGENCIA ARTIFICIAL:
Los
objetivos
de
la
inteligencia
artificial:
Un
ordenador
ejecuta
las
órdenes para procesar datos
que le son suministrados sin
que disponga de capacidad
para
desarrollar
razonamiento alguno acerca
de dicha información. Frente
a ello, la propuesta de la
inteligencia artificial consiste
en lograr que el procesador se adapte al método de
razonamiento y comunicación humanos, para que pueda, no
sólo poner en práctica los algoritmos que en él introduce el
hombre, sino establecer los suyos propios para resolver
problemas. El ordenador puede calcular el área de un polígono
siempre que posea el programa que le proporciona el dato de
la medida de uno de sus lados y la fórmula correspondiente
para realizar dicha operación; la inteligencia artificial pretende
que el procesador sea instruido en los principios de la
geometría, para, por sí mismo, resolver la cuestión, a partir de
un algoritmo de su propia creación. En definitiva, la
inteligencia artificial explora los mecanismos que convierten al
ordenador en una máquina pensante. La posibilidad de que
esta hipótesis llegue a hacerse realidad es rechazada por
numerosos expertos informáticos. En todo caso, se siguen
explorando caminos y, día a día, se constatan los progresos.
La máquina pensante y los
sistemas expertos
Uno de los primeros intentos de construir una máquina
pensante se llevó a cabo en la década de los sesenta. El
resultado fue la creación del GPS (General Problem Solver,;
solucionador general de problemas), que podía resolver
sencillos juegos, siempre que tuvieran un número reducido de
reglas precisas. El fundamento del GPS era que un problemas
podía resolverse partiendo del análisis de todas sus soluciones
posibles y actuando con sucesivos intentos hasta hallar el
camino adecuado. La cuestión que inmediatamente se planteó
fue que, dada la ignorancia absoluta sobre determinado tema,
la búsqueda de salidas requerirla de un tiempo inadmisible.
Evidentemente, la aplicación del GPS a la resolución de
problemas reales resultaba imposible.
Poco tiempo después se idearon los primeros sistemas
expertos, especializados en determinados ámbitos; el más
célebre, el Mycin, fue diseñado en 1974. Se aplicó al campo
médico, concretamente al área de diagnosis, con resultados
más que aceptables. Los sistemas expertos actúan en función
de normas que regulan una relación con el usuario; su misión
no es sustituir a la persona encargada de realizar determinada
tarea, sino tener la posibilidad de operar sobre la base de sus
conocimientos en ausencia de ella. El especialista es,
lógicamente, el encargado de instruir al sistema experto, que
dispondrá de una base de conocimientos acerca de un tema en
cuestión. Dichos conocimientos adoptan la forma de principios
a partir de los cuales el sistema deduce conclusiones, elabora
juicios o toma decisiones. Además de la exigencia de que la
respuesta del sistema experto venga dada en un intervalo de
tiempo razonable, son también elementos fundamentales la
capacidad de indicar el proceso de resolución efectuado y la
posibilidad de adquirir conocimientos a partir de la propia
experiencia. En este último caso, el sistema podrá aplicar los
resultados obtenidos en situaciones análogasfuturas.
Componentes
de
sistemas expertos
los
Un sistema experto consta de cuatro elementos básicos: banco
de conocimientos, motor de inferencia, módulo de adquisición
e interfaz de interpretación. El primero de ellos es el conjunto
de datos que posee el sistema. El motor de inferencia se define
como el mecanismo de razonamiento, que opera en una fase
intuitiva y en otra deductiva. Por su parte, el módulo de
adquisición es el elemento que permite al especialista instruir
al sistema transmitiéndole sus conocimientos. Finalmente, la
interfaz de interpretación permite al sistema explicarse sobre
el’ camino seguido hasta llegar a determinada conclusión.
Las redes neuronales
En la década de los cuarenta surgió la teoría de las redes
neuronales que parte de una comparación entre el ordenador y
el cerebro humano, y cuyo objetivo es imitar el funcionamiento
del sistema neuronal. Podría decirse que el cerebro en el
lenguaje informático, sería un sistema paralelo formado por
ingentes cantidades de procesadores interconectados entre si:
las neuronas. Veamos cómo actúan Cada neurona consta de
un cuerpo celular ramificado en una serie de fibras nerviosas,
las dendritas; dentro d cuerpo celular se encuentra el núcleo, y
de la célula sale el axón, una fibra larga que termina en
filamentos nerviosos. Las células nerviosas están conectadas
entre sí mediante millares de sinapsis —unidas a las dendritas
o directamente al cuerpo celular— El mecanismo de
razonamiento se verifica cuando se produce una transmisión
de señales químicas entre las células nerviosas encargadas de
procesar la información Así las neuronas reciben señales de
otras células; a continuación, procesan dicha información y, en
determinadas condiciones al alcanzar el umbral especifico,
transmiten la señal correspondiente -envían el mensaje— a
través de su axón y por medio de la sinapsis. Si bien el cerebro
es muy superior en determinadas tareas, que realiza a mayor
velocidad que la máquina , el ordenador dispone de una
capacidad de memorización muy superior y está Preparado
para realizar otras operaciones en tiempos que resultan
mínimos con relación a ¡os empleados por la mente humana.
Siguiendo el proceso de funcionamiento de las neuronas
cerebrales los investigadores McCulloch y Pitts idearon en
1943 el modelo que lleva su nombre. El modelo de McCulloch y
Pitts se realiza a partir de una red de gran tamaño, formada
por elementos simples cuya misión es el cálculo de sencillas
funciones —4a neurona únicamente debe realizar la suma
ponderada de los impulsos de otras neuronas, un programa
básico—. Sin embargo, habitualmente, un número reducido de
calculadores ejecuta programas de enorme complejidad; en el
transcurso del proceso, un pequeño error puede repercutir
fatalmente en el resultado. Por otra parte, las neuronas
cerebrales se comunican con una velocidad varios millones de
veces más lenta que la velocidad de operación de los circuitos
electrónicos. Por el contrario, el cerebro humano procesa
determinado tipo de datos, como imágenes o sonidos, mucho
más rápidamente que el ordenador.
EL
PRINCIPIO
INCOMPATIBILIDAD
DE
Un paso fundamental en la aproximación entre el modo de
razonamiento humano y el de la máquina es comprender que,
en situaciones con determinado grado de complejidad, no
existe una solución única, sino que pueden aplicarse métodos
diversos. La mente del ser humano es capaz de ponderar las
ventajas e inconvenientes que ofrece cada uno y, en
consecuencia, tomar una decisión. Normalmente, el ordenador
se encuentro determinado hacia un único camino. El principio
de incompatibilidad de los sistemas complejos fue formulado
en 1972 por Zadeh. Expresa el hecho de que a medida que se
profundizo en el estudio de las propiedades características de
un determinado sistema, mayor riesgo de imprecisión y error
existe para su descripción. Al aumentar la complejidad, las
posibilidades de expresamos con exactitud y pertinencia
disminuyen, en razón del número creciente de factores que
intervienen en nuestro análisis.
La lógica ambigua
A mediados de la década de los sesenta surgió una nueva
teoría, la lógica ambigua, denominada así por tratarse de una
disciplina opuesta a la lógica binaria, que opera en función de
pares de datos contrarios: si/no, verdadero /falso, 1/O. En el
marco de la lógica ambigua, el paso de un valor a otro se
realiza de manera gradual, sin que exista una línea de
separación nítida. No resulta adecuado trabajar con valores
numéricos —1 y O—, propios de la lógica binaria, sino con
variables lingüísticas. En definitiva, se trata de operar en
sistemas donde los fenómenos no se describen analíticamente,
sino que son caracterizados de modo descriptivo o lingüístico.
La lógica ambigua trata de asignar valores de verdad a
expresiones a las que no pueden asociarse unívocamente las
consideraciones verdaderas o falsas. En contra de lo que
pudiera pensarse a simple vista, las aplicaciones de la lógica
ambigua no implican un descenso en los niveles de control y
fiabilidad en aquellos campos en que se ponen en práctica. Si
bien estas teorías han tenido un desarrollo notable en ámbitos
orientales, en Occidente su aceptación ha sido mucho más
costosa.
UN EJEMPLO DE APLICACIÓN
DE LA LÓGICA AMBIGUA
En cualquier sistema que trabajo con conjuntos ambiguos, es
necesario definir las variables lingüísticas ambiguos Vinculadas
entre sí por una relación causa/efecto —la primera variable se
denomina antecedente la segunda, consecuente—, los
conjuntos ambiguos —X e Y— en los que quedan incluidas
dichas variables y las reglas de inferencia ambigua, con
fórmulas del tipo «si X entonces Y».
En el caso de que haya que proyectar un mecanismo que
controle la calefacción en una vivienda, se opero con dos
variables; la primera, denominada A mide la temperatura de la
caso; la segunda, B, describe la potencia que ha de
proporcionar la caldera. Cada variable lleva aparejado un
conjunto donde, además de los Valores que puede asumir, se
describe el grado de ambigudod0 pertinencia de cada valor —
este grado se expresa gráficamente en el eje de ordenadas de
un gráfico cartesianos, Cada conjunto ambiguo comprende una
serie de expresión que constituyen subsistemas; por ejemplo,
para A, podrían darse las siguientes: fría, fresca, templada,
alta y sofocante. Para B se establece una escala de cero a cien
para medir la potencia de la caldera, al tiempo que se definen
los correspondientes subsistemas de valores que puede
asumir: apagada, lenta, normal, rápida y expedita. A
continuación es necesario proporcionar la secuencia de reglas
ambiguas, emparejando elementos de los subsistemas dados:
temperatura
fría/caldera
expedita;
temperatura
templada/caldera
normal,
temperatura sofocante/caldera
apagada etc.
-LA INTELIGENCIA ARTIFICIAL
CERCA DE SER CREADA POR
LOS CIENTIFICOS:
Científicos estadounidenses descubrieron una forma más eficaz
de construir un genoma sintético que podría ser la puerta para
la creación de la vida artificial, según el Instituto Venter,
dirigido por el polémico pionero en biotecnología, Craig Venter.
El método ya está utilizándose en la bioquímica y para elaborar
una nueva generación de biocombustibles en los laboratorios
del científico estadounidense, determinado a crear una forma
de vida artificial, aunque esa perspectiva es altamente
controvertida
y
suscita
numerosos
debates
éticos.
El instituto ya había anunciado en enero que había conseguido
crear el primer genoma sintético de una bacteria. En un
principio utilizó la bacteria E. Coli para fabricar este genoma,
pero los científicos descubrieron que este proceso era largo y
engorroso, y que la bacteria tenía dificultades para reproducir
grandes
segmentos
de
ADN.
Luego decidieron recurrir a un tipo de levadura conocida como
“Saccharomyces cerevisiae”. Esta les permitió crear un
genoma sintético utilizando un método que llamaron
“recombinación homóloga”: un proceso que las células utilizan
naturalmente para reparar daños en sus cromosomas.
Entonces exploraron la capacidad de ensamblaje del ADN en la
levadura, que se reveló como una “fábrica genética”, indicó el
Instituto en un comunicado el miércoles=4&cHash=5d160ab67f
.
“El equipo (del Instituto Venter) puede a partir de ahora
ensamblar el genoma completo de la bacteria ‘Mycoplasma
genitalium’ en una sola etapa, a partir de 25 fragmentos de
ADN”,
señala
el
centro
en
su
sitio
web.
Estos descubrimientos representan “una gran mejora de los
métodos que el equipo había elaborado y descrito en enero de
2008, cuando presentó el primer genoma sintético”, agrega.
La creación de vida artificial es uno de los santos griales de la
ciencia.
-REDES NEURONALES:
El campo de las redes Neuronales Artificiales intenta utilizar
estructuras de datos diseñadas para imitar las neuronas dentro
del cerebro para realizar reconocimiento y clasificación de
datos. Pueden ser (y han sido) usados para una gran cantidad
de tareas diferentes: predecir el mercado de acciones, extraer
datos de imagen a partir de información del radar, controlar
coches,
robots
y
mucho
más.
Lo que está claro de las redes neuronales es que aprenden.
Son básicamente funciones de mapeado de lujo: realizarán
mapeados de un grupo de vectores sobre otro, pero aprender a
realizar este mapeado por ellas mismas, a través de
aprendizaje supervisado o no supervisado. Empezar con las
redes neuronales no es fácil ya que necesitan un fuerte
conocimiento de la teoría, requiriendo un cierto grado de
conocimiento algebraico e incluso cálculo si realmente deseas
entender como funcionan los algoritmos usados.
Generation5 tiene una series of essays que están dirigidos a
introducir las redes neuronales lentamente: primero cubre el
tema de los perceptrones (la red neuronal más sencilla),
entonces detallando perceptrones multicapa y el algoritmo de
propagación hacia atrás (back-propagation). Si quieres
empezar con redes neuronales, prepárate para leer y
programar mucho ya que no son fáciles de entender sin
ponerse "manos a la obra".
-ALGORITMOS GENETICOS Y
PROGRAMACION EVOLUTIVA:
Programación evolutiva son campos muy interesantes, si las
ideas de la evolución y la genética llaman tu atención. Gente
con conocimientos en biología encontrarán la programación
evolutiva muy estimulando, ya que toma mucha teoría de la
biología/genética/biología
teórica.
Los algoritmos genéticos básicamente usan el poder de la
evolución y la genética para evolucionar soluciones a un
problema. Las soluciones a un problema se codifican en
genotipos, que son entonces manipulados. Se comprueba la
idoneidad de cada genotipo y los mejores reproducen entre
ellos para producir la siguiente generación. Esta secuencia se
repite hasta que se descubre la solución o la mejor
aproximación posible.
Los algoritmos genéticos son un subgrupo de un campo mucho
más amplio: programación evolutiva. La programación
evolutiva agrega otras áreas de la computación inspiradas en
la biología como la programación genética (evolución de
algoritmos para resolver un problema). La programación
evolutiva se usa habitualmente junto con otras áreas de la IA
como las redes neuronales. Los AGs aveces se usan para
evolucionar la arquitectura de redes neuronales o sus pesos, o
son usadas para afinar parámetros en máquinas de estados
finitos (en juegos).
Empezar con los algoritmos genéticos es relativamente fácil ya
que la teoría es fácil de comprender para cualquiera que
estudió bilogía en secundaria. Echad un vistazo en Generation5
essays para más información
-ROBOTICA:
Mi favorito personal, la robótica es casi lo mejor de los dos
mundos ya que consigues "pulcro-ingenioso" factor de la
Inteligencia Artificial unido con el realismo físico del robot - ie,
es algo que puedes tocar, construir e interaccionar con ello.
La robótica comercial está empezando a despegar. SONY hizo
un gran salto hacia delante en la industria del entretenimiento
con el lanzamiento de Sony ERS-110/111 AIBO (dibujo a la
derecha). Ahora con el nuevo AIBO ERS-210 y su próximo
compañero bípedo robótico el SDR (Sony Dream Robot), es fácil
ver que muchas familias pronto van a tener un pequeño
compañero mecánico!
La robótica es un buen campo por el que preocuparse ya que
escala desde lo más simples robots programables hasta los
ultra-complicados robots de investigación. Si deseas empezar
con la robótica echa un vistazo a How to Get Started with
Robotics.
-VIDA ARTIFICIAL:
La Vida Artificial es un campo que avanza rápidamente
dedicado a simular la vida en un ordenador. Puede ser vida en
el sentido más estricto (imitando fenómenos biológicos como la
digestión o el sistema nervioso) o, más comúnmente, consiste
en abstracciones de la vida. Una gran cantidad de vida-a se
produce en forma de autómatas celulares. Los AC están
normalmente organizados en un plano 2D y gobernados por
reglas muy sencillas, de esas reglas surgen algunos
comportamientos
increíblemente
complejos.
Por ejemplo , el juego de la vida de Conway, uno de los
primeros autómatas celulares fuertemente estructurados es
gobernado por 2 simples reglas. Una célula no puede 'vivir' si
hay más de tres o menos de dos células en las 8 células
adyacentes y si el número de células alrededor de una célula
muerta es exactamente tres, nace una nueva célula. Puedes
creerlo o no, pero algunos comportamientos increiblemente
complejos emergen - de hecho, se ha probado que el juego de
la vida de Conway puede ser configurado para actuar como una
Máquina de Turing, haciéndola en teoría capaz de calcular
cualquier cosa que puede calcular un ordenador actual!
El mejor consejo para empezar en la Vida-a es bajarse algunos
programas de AC como el MCell y experimentar. Entonces
busca experimentos de Vida-a más avanzados como TIERRA,
antes de intentar programar algo por ti mismo.
-Fotos: