Download Inteligencia artificial
Document related concepts
Transcript
-Inteligencia artificial: Se denomina inteligencia artificial a la rama de la ciencia informática dedicada al desarrollo de agentes racionales no vivos. Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas). Y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado. Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura. Existen distintos tipos de conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje. También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son: • • • • • Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos). Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles. Algoritmos genéticos (Análogo al proceso de evolución de las cadenas de ADN). Redes neuronales artificiales (Análogo al funcionamiento físico del cerebro de animales y humanos). Razonamiento mediante una Lógica formal (Análogo al pensamiento abstracto humano). También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software. Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos. -Historia: Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a.C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ktesibios de Alejandría (250 a.C.) construyó la primera máquina autocontrolada, un regulardor del flujo de agua (racional pero sin razonamiento). En 1315 d.C Ramón Lull tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aún cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones. En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth , un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años. El matemático sudafricano, Seymour Papert, considerado pionero en esta ciencia. también es En 1980 la historia se repitió con el desafío japonés de la quinta generación de computadoras, que dio lugar al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa. En la actualidad se está tan lejos de cumplir la prueba de Turing como cuando se formuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas. Como anécdota, muchos de los investigadores sobre IA sostienen que "la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro". En 2006 se celebró el 50 aniversario de la IA en Dartmouth con la AI@50 "Dartmouth Artificial Intelligence Conference: The Next Fifty Years". También el Campus Multidisciplinar en Percepción e Inteligencia de Albacete 2006 fué el único evento en español que lo celebró, con ponentes como Rodolfo Llinás o José Mira Mira. -Inteligencia emociones: artificial y El concepto de Inteligencia Artificial es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de unamáquina inteligente. A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin emociones, que "obstaculizan" encontrar la mejor solución a un problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor. En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de tomar decisiones "acertadas". Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes “emotivos”, a fin de aumentar la eficacia de los sistemas inteligentes. Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo qué hacer a continuación. Al tener “emociones” y, al menos potencialmente, “motivaciones”, podrán actuar de acuerdo con sus “intenciones”. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que “sientan hambre” al detectar que su nivel de energía está descendiendo o que “sientan miedo” cuando aquel esté demasiado bajo. Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento. Incluso se podría introducir el “dolor” o el “sufrimiento físico”, a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables. En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto complementarios. -LA INTELIGENCIA ARTIFICIAL TOMA FORMA HUMANA: ¿Es o no es una persona real? La duda persiste aunque nos acerquemos a la pantalla y analicemos cada uno de sus movimientos al milímetro. Un Vi-clone es tan parecido a una persona, que resulta difícil creer que en realidad no es más que un conjunto de píxeles en movimiento en una pantalla. El director de Vi-clone Corp., Rudy Bianco, asegura que “analizando las preguntas que le hacían a una vi-clone que se ha instalado en la página web de una clínica de cirugía estética, vimos que la gente le hacía preguntas del tipo ¿qué haces hoy cuando salgas del trabajo?". Obviamente la Vi-clone declinaba el ofrecimiento, pero la anécdota es ilustrativa. Los vi-clones son la nueva apuesta de la realidad virtual, y están al servicio de las empresas que los quieran usar como embajadores de su marca de cara al cliente. No se enfadan, no se inquietan, siempre dan un buen servicio y su aspecto siempre está listo para revista. Además, trabajan las 24h de los 365 días del año, y sin cansarse. Desde el punto de vista de los costes, por tanto, parece que la inversión en un vi-clone debería resultar rentable, pero todo depende del gasto que una empresa quiera emplear en atención al cliente. La cuarta generación: Según explica Rudy Bianco, “Vi-clone es la cuarta generación de una tecnología que se empezó a estudiar en 1999 a partir de una experiencia de interactividad pensada para el Círculo de Lectores, y que obtuvo un éxito rotundo desde los primeros días de su aplicación”. Por tanto, estos “Virtual Clones” surgen de varios años de investigación de los mercados y de estudiar las posibilidades de la interacción con los clientes. La tecnología actual de los Vi-clones está basada en algoritmos de inteligencia artificial que consiguen simular el entendimiento humano, de manera que “parece que piensan por sí mismos”, explica Bianco. De momento ya existen varias empresas que se han decidido a instalar un Vi-Clone, como la clínica especializada en cirugía estética y plástica Instituto de Benito o la alimentaria Sunny Delight. La eficacia de los Vi-Clones también se ha puesto a prueba en eventos tan multitudinarios como el Barcelona Meeting Point o la feria tecnológica SIMO de Madrid, donde se instalaron diferentes Vi-Clone Point –terminales con un ViClone integrado- que hicieron la función de punto de información del salón y ahorraron a los visitantes tener que usar mapas del recinto. -AEPIA: La Asociación Española para la Inteligencia Artificial (AEPIA) se creó en 1983 para potenciar y fomentar el desarrollo de la Inteligencia Artificial tanto en el ámbito español como en el Iberoamericano. Es miembro de ECCAI (European Coordinating Committee for Artificial Intelligence), miembro fundador de la Confederación Española de Asociaciones Científicas (COSCE) y miembro fundador de IBERAMIA. AEPIA organiza bienalmente la Conferencia Española de la Asociación junto con las Jornadas de Transferencia de Tecnología y en los años alternos coorganiza IBERAMIA, la conferencia Iberoamericana de Inteligencia Artificial con la colaboración de otras asociaciones de diferentes países iberoamericanos. AEPIA también patrocina las Conferencias Españolas de Informática (CEDI), desde su primera edición en 2005. Entre los fines de la AEPIA se encuentran la creación y coordinación de grupos de trabajo, el apoyo a la transferencia de tecnología, el apoyo a entidades (universidades, centros de I+D+i, empresas, instituciones, etc.) para facilitar su innovación y aplicación de las técnicas y aplicaciones de la Inteligencia Artificial, proporcionar un soporte y foro de discusión a investigadores y estudiantes en sus actividades relacionadas con la Inteligencia Artificial, desde los aspectos de investigación científica y tecnológica, desarrollo, aplicación y docencia. Desde 1997 la difusión de las actividades se realiza mayormente mediante la revista de la asociación (Revista Iberoamericana de Inteligencia Artificial), que publica cuatro números por año con una tirada media de 450 ejemplares. Adicionalmente, por medio de AEPIA se coordina la lista de distribución en Inteligencia Artificial INT-ARTIF (soportada por RED-IRIS). La "Asociación Española para la Promoción de la Inteligencia Artificial (AEPIA)" se haya inscrita en el Registro Nacional de Asociaciones (Ministerio de Interior), con fecha 31 de Agosto de 1984, en su sección 1ª, con los números 56.171 y 6.169, nacional y provincial respectivamente. -OBJETIVOS DE LA INTELIGENCIA ARTIFICIAL: Los objetivos de la inteligencia artificial: Un ordenador ejecuta las órdenes para procesar datos que le son suministrados sin que disponga de capacidad para desarrollar razonamiento alguno acerca de dicha información. Frente a ello, la propuesta de la inteligencia artificial consiste en lograr que el procesador se adapte al método de razonamiento y comunicación humanos, para que pueda, no sólo poner en práctica los algoritmos que en él introduce el hombre, sino establecer los suyos propios para resolver problemas. El ordenador puede calcular el área de un polígono siempre que posea el programa que le proporciona el dato de la medida de uno de sus lados y la fórmula correspondiente para realizar dicha operación; la inteligencia artificial pretende que el procesador sea instruido en los principios de la geometría, para, por sí mismo, resolver la cuestión, a partir de un algoritmo de su propia creación. En definitiva, la inteligencia artificial explora los mecanismos que convierten al ordenador en una máquina pensante. La posibilidad de que esta hipótesis llegue a hacerse realidad es rechazada por numerosos expertos informáticos. En todo caso, se siguen explorando caminos y, día a día, se constatan los progresos. La máquina pensante y los sistemas expertos Uno de los primeros intentos de construir una máquina pensante se llevó a cabo en la década de los sesenta. El resultado fue la creación del GPS (General Problem Solver,; solucionador general de problemas), que podía resolver sencillos juegos, siempre que tuvieran un número reducido de reglas precisas. El fundamento del GPS era que un problemas podía resolverse partiendo del análisis de todas sus soluciones posibles y actuando con sucesivos intentos hasta hallar el camino adecuado. La cuestión que inmediatamente se planteó fue que, dada la ignorancia absoluta sobre determinado tema, la búsqueda de salidas requerirla de un tiempo inadmisible. Evidentemente, la aplicación del GPS a la resolución de problemas reales resultaba imposible. Poco tiempo después se idearon los primeros sistemas expertos, especializados en determinados ámbitos; el más célebre, el Mycin, fue diseñado en 1974. Se aplicó al campo médico, concretamente al área de diagnosis, con resultados más que aceptables. Los sistemas expertos actúan en función de normas que regulan una relación con el usuario; su misión no es sustituir a la persona encargada de realizar determinada tarea, sino tener la posibilidad de operar sobre la base de sus conocimientos en ausencia de ella. El especialista es, lógicamente, el encargado de instruir al sistema experto, que dispondrá de una base de conocimientos acerca de un tema en cuestión. Dichos conocimientos adoptan la forma de principios a partir de los cuales el sistema deduce conclusiones, elabora juicios o toma decisiones. Además de la exigencia de que la respuesta del sistema experto venga dada en un intervalo de tiempo razonable, son también elementos fundamentales la capacidad de indicar el proceso de resolución efectuado y la posibilidad de adquirir conocimientos a partir de la propia experiencia. En este último caso, el sistema podrá aplicar los resultados obtenidos en situaciones análogasfuturas. Componentes de sistemas expertos los Un sistema experto consta de cuatro elementos básicos: banco de conocimientos, motor de inferencia, módulo de adquisición e interfaz de interpretación. El primero de ellos es el conjunto de datos que posee el sistema. El motor de inferencia se define como el mecanismo de razonamiento, que opera en una fase intuitiva y en otra deductiva. Por su parte, el módulo de adquisición es el elemento que permite al especialista instruir al sistema transmitiéndole sus conocimientos. Finalmente, la interfaz de interpretación permite al sistema explicarse sobre el’ camino seguido hasta llegar a determinada conclusión. Las redes neuronales En la década de los cuarenta surgió la teoría de las redes neuronales que parte de una comparación entre el ordenador y el cerebro humano, y cuyo objetivo es imitar el funcionamiento del sistema neuronal. Podría decirse que el cerebro en el lenguaje informático, sería un sistema paralelo formado por ingentes cantidades de procesadores interconectados entre si: las neuronas. Veamos cómo actúan Cada neurona consta de un cuerpo celular ramificado en una serie de fibras nerviosas, las dendritas; dentro d cuerpo celular se encuentra el núcleo, y de la célula sale el axón, una fibra larga que termina en filamentos nerviosos. Las células nerviosas están conectadas entre sí mediante millares de sinapsis —unidas a las dendritas o directamente al cuerpo celular— El mecanismo de razonamiento se verifica cuando se produce una transmisión de señales químicas entre las células nerviosas encargadas de procesar la información Así las neuronas reciben señales de otras células; a continuación, procesan dicha información y, en determinadas condiciones al alcanzar el umbral especifico, transmiten la señal correspondiente -envían el mensaje— a través de su axón y por medio de la sinapsis. Si bien el cerebro es muy superior en determinadas tareas, que realiza a mayor velocidad que la máquina , el ordenador dispone de una capacidad de memorización muy superior y está Preparado para realizar otras operaciones en tiempos que resultan mínimos con relación a ¡os empleados por la mente humana. Siguiendo el proceso de funcionamiento de las neuronas cerebrales los investigadores McCulloch y Pitts idearon en 1943 el modelo que lleva su nombre. El modelo de McCulloch y Pitts se realiza a partir de una red de gran tamaño, formada por elementos simples cuya misión es el cálculo de sencillas funciones —4a neurona únicamente debe realizar la suma ponderada de los impulsos de otras neuronas, un programa básico—. Sin embargo, habitualmente, un número reducido de calculadores ejecuta programas de enorme complejidad; en el transcurso del proceso, un pequeño error puede repercutir fatalmente en el resultado. Por otra parte, las neuronas cerebrales se comunican con una velocidad varios millones de veces más lenta que la velocidad de operación de los circuitos electrónicos. Por el contrario, el cerebro humano procesa determinado tipo de datos, como imágenes o sonidos, mucho más rápidamente que el ordenador. EL PRINCIPIO INCOMPATIBILIDAD DE Un paso fundamental en la aproximación entre el modo de razonamiento humano y el de la máquina es comprender que, en situaciones con determinado grado de complejidad, no existe una solución única, sino que pueden aplicarse métodos diversos. La mente del ser humano es capaz de ponderar las ventajas e inconvenientes que ofrece cada uno y, en consecuencia, tomar una decisión. Normalmente, el ordenador se encuentro determinado hacia un único camino. El principio de incompatibilidad de los sistemas complejos fue formulado en 1972 por Zadeh. Expresa el hecho de que a medida que se profundizo en el estudio de las propiedades características de un determinado sistema, mayor riesgo de imprecisión y error existe para su descripción. Al aumentar la complejidad, las posibilidades de expresamos con exactitud y pertinencia disminuyen, en razón del número creciente de factores que intervienen en nuestro análisis. La lógica ambigua A mediados de la década de los sesenta surgió una nueva teoría, la lógica ambigua, denominada así por tratarse de una disciplina opuesta a la lógica binaria, que opera en función de pares de datos contrarios: si/no, verdadero /falso, 1/O. En el marco de la lógica ambigua, el paso de un valor a otro se realiza de manera gradual, sin que exista una línea de separación nítida. No resulta adecuado trabajar con valores numéricos —1 y O—, propios de la lógica binaria, sino con variables lingüísticas. En definitiva, se trata de operar en sistemas donde los fenómenos no se describen analíticamente, sino que son caracterizados de modo descriptivo o lingüístico. La lógica ambigua trata de asignar valores de verdad a expresiones a las que no pueden asociarse unívocamente las consideraciones verdaderas o falsas. En contra de lo que pudiera pensarse a simple vista, las aplicaciones de la lógica ambigua no implican un descenso en los niveles de control y fiabilidad en aquellos campos en que se ponen en práctica. Si bien estas teorías han tenido un desarrollo notable en ámbitos orientales, en Occidente su aceptación ha sido mucho más costosa. UN EJEMPLO DE APLICACIÓN DE LA LÓGICA AMBIGUA En cualquier sistema que trabajo con conjuntos ambiguos, es necesario definir las variables lingüísticas ambiguos Vinculadas entre sí por una relación causa/efecto —la primera variable se denomina antecedente la segunda, consecuente—, los conjuntos ambiguos —X e Y— en los que quedan incluidas dichas variables y las reglas de inferencia ambigua, con fórmulas del tipo «si X entonces Y». En el caso de que haya que proyectar un mecanismo que controle la calefacción en una vivienda, se opero con dos variables; la primera, denominada A mide la temperatura de la caso; la segunda, B, describe la potencia que ha de proporcionar la caldera. Cada variable lleva aparejado un conjunto donde, además de los Valores que puede asumir, se describe el grado de ambigudod0 pertinencia de cada valor — este grado se expresa gráficamente en el eje de ordenadas de un gráfico cartesianos, Cada conjunto ambiguo comprende una serie de expresión que constituyen subsistemas; por ejemplo, para A, podrían darse las siguientes: fría, fresca, templada, alta y sofocante. Para B se establece una escala de cero a cien para medir la potencia de la caldera, al tiempo que se definen los correspondientes subsistemas de valores que puede asumir: apagada, lenta, normal, rápida y expedita. A continuación es necesario proporcionar la secuencia de reglas ambiguas, emparejando elementos de los subsistemas dados: temperatura fría/caldera expedita; temperatura templada/caldera normal, temperatura sofocante/caldera apagada etc. -LA INTELIGENCIA ARTIFICIAL CERCA DE SER CREADA POR LOS CIENTIFICOS: Científicos estadounidenses descubrieron una forma más eficaz de construir un genoma sintético que podría ser la puerta para la creación de la vida artificial, según el Instituto Venter, dirigido por el polémico pionero en biotecnología, Craig Venter. El método ya está utilizándose en la bioquímica y para elaborar una nueva generación de biocombustibles en los laboratorios del científico estadounidense, determinado a crear una forma de vida artificial, aunque esa perspectiva es altamente controvertida y suscita numerosos debates éticos. El instituto ya había anunciado en enero que había conseguido crear el primer genoma sintético de una bacteria. En un principio utilizó la bacteria E. Coli para fabricar este genoma, pero los científicos descubrieron que este proceso era largo y engorroso, y que la bacteria tenía dificultades para reproducir grandes segmentos de ADN. Luego decidieron recurrir a un tipo de levadura conocida como “Saccharomyces cerevisiae”. Esta les permitió crear un genoma sintético utilizando un método que llamaron “recombinación homóloga”: un proceso que las células utilizan naturalmente para reparar daños en sus cromosomas. Entonces exploraron la capacidad de ensamblaje del ADN en la levadura, que se reveló como una “fábrica genética”, indicó el Instituto en un comunicado el miércoles=4&cHash=5d160ab67f . “El equipo (del Instituto Venter) puede a partir de ahora ensamblar el genoma completo de la bacteria ‘Mycoplasma genitalium’ en una sola etapa, a partir de 25 fragmentos de ADN”, señala el centro en su sitio web. Estos descubrimientos representan “una gran mejora de los métodos que el equipo había elaborado y descrito en enero de 2008, cuando presentó el primer genoma sintético”, agrega. La creación de vida artificial es uno de los santos griales de la ciencia. -REDES NEURONALES: El campo de las redes Neuronales Artificiales intenta utilizar estructuras de datos diseñadas para imitar las neuronas dentro del cerebro para realizar reconocimiento y clasificación de datos. Pueden ser (y han sido) usados para una gran cantidad de tareas diferentes: predecir el mercado de acciones, extraer datos de imagen a partir de información del radar, controlar coches, robots y mucho más. Lo que está claro de las redes neuronales es que aprenden. Son básicamente funciones de mapeado de lujo: realizarán mapeados de un grupo de vectores sobre otro, pero aprender a realizar este mapeado por ellas mismas, a través de aprendizaje supervisado o no supervisado. Empezar con las redes neuronales no es fácil ya que necesitan un fuerte conocimiento de la teoría, requiriendo un cierto grado de conocimiento algebraico e incluso cálculo si realmente deseas entender como funcionan los algoritmos usados. Generation5 tiene una series of essays que están dirigidos a introducir las redes neuronales lentamente: primero cubre el tema de los perceptrones (la red neuronal más sencilla), entonces detallando perceptrones multicapa y el algoritmo de propagación hacia atrás (back-propagation). Si quieres empezar con redes neuronales, prepárate para leer y programar mucho ya que no son fáciles de entender sin ponerse "manos a la obra". -ALGORITMOS GENETICOS Y PROGRAMACION EVOLUTIVA: Programación evolutiva son campos muy interesantes, si las ideas de la evolución y la genética llaman tu atención. Gente con conocimientos en biología encontrarán la programación evolutiva muy estimulando, ya que toma mucha teoría de la biología/genética/biología teórica. Los algoritmos genéticos básicamente usan el poder de la evolución y la genética para evolucionar soluciones a un problema. Las soluciones a un problema se codifican en genotipos, que son entonces manipulados. Se comprueba la idoneidad de cada genotipo y los mejores reproducen entre ellos para producir la siguiente generación. Esta secuencia se repite hasta que se descubre la solución o la mejor aproximación posible. Los algoritmos genéticos son un subgrupo de un campo mucho más amplio: programación evolutiva. La programación evolutiva agrega otras áreas de la computación inspiradas en la biología como la programación genética (evolución de algoritmos para resolver un problema). La programación evolutiva se usa habitualmente junto con otras áreas de la IA como las redes neuronales. Los AGs aveces se usan para evolucionar la arquitectura de redes neuronales o sus pesos, o son usadas para afinar parámetros en máquinas de estados finitos (en juegos). Empezar con los algoritmos genéticos es relativamente fácil ya que la teoría es fácil de comprender para cualquiera que estudió bilogía en secundaria. Echad un vistazo en Generation5 essays para más información -ROBOTICA: Mi favorito personal, la robótica es casi lo mejor de los dos mundos ya que consigues "pulcro-ingenioso" factor de la Inteligencia Artificial unido con el realismo físico del robot - ie, es algo que puedes tocar, construir e interaccionar con ello. La robótica comercial está empezando a despegar. SONY hizo un gran salto hacia delante en la industria del entretenimiento con el lanzamiento de Sony ERS-110/111 AIBO (dibujo a la derecha). Ahora con el nuevo AIBO ERS-210 y su próximo compañero bípedo robótico el SDR (Sony Dream Robot), es fácil ver que muchas familias pronto van a tener un pequeño compañero mecánico! La robótica es un buen campo por el que preocuparse ya que escala desde lo más simples robots programables hasta los ultra-complicados robots de investigación. Si deseas empezar con la robótica echa un vistazo a How to Get Started with Robotics. -VIDA ARTIFICIAL: La Vida Artificial es un campo que avanza rápidamente dedicado a simular la vida en un ordenador. Puede ser vida en el sentido más estricto (imitando fenómenos biológicos como la digestión o el sistema nervioso) o, más comúnmente, consiste en abstracciones de la vida. Una gran cantidad de vida-a se produce en forma de autómatas celulares. Los AC están normalmente organizados en un plano 2D y gobernados por reglas muy sencillas, de esas reglas surgen algunos comportamientos increíblemente complejos. Por ejemplo , el juego de la vida de Conway, uno de los primeros autómatas celulares fuertemente estructurados es gobernado por 2 simples reglas. Una célula no puede 'vivir' si hay más de tres o menos de dos células en las 8 células adyacentes y si el número de células alrededor de una célula muerta es exactamente tres, nace una nueva célula. Puedes creerlo o no, pero algunos comportamientos increiblemente complejos emergen - de hecho, se ha probado que el juego de la vida de Conway puede ser configurado para actuar como una Máquina de Turing, haciéndola en teoría capaz de calcular cualquier cosa que puede calcular un ordenador actual! El mejor consejo para empezar en la Vida-a es bajarse algunos programas de AC como el MCell y experimentar. Entonces busca experimentos de Vida-a más avanzados como TIERRA, antes de intentar programar algo por ti mismo. -Fotos: