Download Una máquina de ajedrez gran maestra

Document related concepts
no text concepts found
Transcript
Una máquina de ajedrez gran maestra
En los años 40 esta revista publicó el primer prospecto de una computadora de
ajedrez, las máquinas vencieron a los primeros principiantes, después maestros y
ahora grandes maestros.
¿Gary Kasparov será el siguiente?
por Feng-hsiung Hsu, Thomas Anantharaman, Murray Campbell y Andreas Nowatzyk.
[Este artículo fue publicado originalmente en issue of Scientific American en Octubre de 1990]
http://www.disi.unige.it/person/DelzannoG/AI2/hsu.html
En enero de 1988, en una rueda de prensa en París, preguntaron al campeón de
ajedrez del mundo, Gary K. Kasparov si una computadora podría derrotar a un gran maestro
antes del año 2000. "de ninguna manera," él contestó, " y si algún gran maestro tiene
dificultades jugando con la computadora, estaría feliz de darle mi consejo."
Diez meses después de la declaración de Kasparov, en un importante torneo que se
llevo acabo en Long Beach, California, el gran maestro Bent Larsen, un competidor anterior
para el título del mundo, fue derrotado por una computadora de ajedrez que habíamos
diseñado en un proyecto de titulo en la universidad Carnegie-Mellon. La máquina, una
combinación de software y de hardware modificado para los requisitos particulares, llamada
Deep Thought, gano otros cinco juegos, empato uno y perdió uno, empatando con Anthony
Miles por el primer lugar. Porque las máquinas están descalificadas para ganar dinero en
torneos, Miles embolso el primer premio por $10.000. (Sin embargo Deep Thought derrotó a
Miles en un juego de desempate al año siguiente en una exhibición.)
Por el verano de 1990 ya tres integrantes del equipo original de Deep Thought eran
parte de IBM, Deep Thought habían alcanzado un 50 por ciento de efectividad en 10 juegos
jugados bajo condiciones de torneos contra grandes maestros y una cuenta de 86 por ciento
en 14 juegos contra maestros internacionales. Algunos de estos juegos y docenas de otros
contra oponentes menos distinguidos habían sido jugados bajo auspicios de la federación de
ajedrez de U.S. , que utilizó los resultados para derivar un grado del ajedrez de 2552. Ese
grado indica una fuerza de juego por la mitad inferior del rango de un gran maestro. Un
jugador promedio de los torneos, por el contrario, esta alrededor de 1500. En los juegos
jugados después de agosto de 1988, cuando la computadora alcanzó su velocidad analítica
actual de 750.000 posiciones por segundo, su grado de funcionamiento excedió de 2600.
La siguiente generación de la maquina, espera jugar su primer juego en algún
momento de 1992, funcionará en un hardware lejos de mayor alcance. El equipo aumentará la
velocidad de análisis en más de 1,000 capas, a alrededor de 1000 millones de posiciones por
segundo. Solo con este único cambio podría lograr que las nuevas generaciones de Deep
Thought fueran un jugador más fuerte y más potente que Kasparov o cualquier otro ser
humano en la historia. ¿Por qué cualquier persona desearía enseñar a una máquina cómo
arrinconar a un rey de madera en un tablero de ajedrez? Primero, el juego de ajedrez ha sido
considerado en el Oeste como el juego preeminente de ingenio y por lo tanto en palabras de
Goethe como la piedra de tope del intelecto. Mucha gente discute que una exitosa máquina de
ajedrez probará que pensar puede ser modelado o, inversamente, que el ajedrez no implica
pensar. Cualquier conclusión cambiaría seguramente el concepto que comúnmente se llama
inteligencia.
Además, la computadora de ajedrez presenta un atractivo problema de ingeniería. El caso fue
indicado en las páginas de esta revista hace 40 años por Claude E. Shannon, el fundador de la
teoría de información (veer "A Chess-Playing Machine” por Claude E. Shannon; Scientific
American, Febrero, 1950):
1
La investigación del problema de jugar ajedrez, esta pensado para desarrollar técnicas
que se pueden utilizar para usos más prácticos. La máquina de ajedrez es un ideal por varias
razones. El problema se define agudamente, en las operaciones permitidas (los movimientos
del ajedrez) y en la meta (jaque mate). Es ni tan simple como lo trivial, ni demasiado difícil para
una solución satisfactoria. Y una maquina así podría confrontar un openente humano, dando
una medida clara de la capacidad de la máquina en este tipo de razonamiento.
Quizás la consecuencia práctica más grande de la programación del ajedrez, viene de
su demostración de la eficacia del análisis computarizado. La perfección de técnicas
relacionadas promete avanzar en el diseño de redes, modelamiento químico e incluso análisis
lingüístico.
La idea de una máquina de ajedrez data desde 1760, cuando el Barón Wolfgang von
Kempelen exhibió el Maezal Chess Automaton en Europa. La máquina, apodada el Turco
porque jugaba usando una marioneta con turbante y bigote, funcionaba al parecer por un
complicado mecanismo en un gabinete inferior. Jugó generalmente bien y puso furioso una vez
a Napoleón Bonaparte al vencerlo en 19 movimientos. Edgar Allan Poe, entre otros,
conjeturaba más adelante que el secreto del Turco era un diminuto maestro de ajedrez que
hacia las movidas desde un compartimiento secreto pero Poe citó una razón incorrecta: él
argumentaba que las pérdidas ocasionales del Turco eran inconsistentes con la perfección de
una máquina verdadera.
Alan M. Turing, el matemático británico, informático y criptógrafo, fue el primero en
considerar el problema de una computadora de ajedrez. Él encontró esto fácil, sin embargo,
para realizar su programa de generador de movimientos y de evaluación de posiciones lo hizo
a mano y no por computadora. Konrad Zuse en Alemania y otros trabajadores hicieron
esfuerzos similares, pero el trabajo fundamental fue hecho por Shannon. Él construyó sobre
los descubrimientos de John von Neumann y Oskar Morgenstern, quienes, en su teoría general
de juegos, habían ideado un algoritmo llamado del MINIMAX, por el cual puede ser calculado
el mejor movimiento. El proceso representa básicamente un número arbitrariamente grande de
posiciones que pudieron resultar de cada serie posible de movimientos, les asigna una cuenta
numérica y trabaja al revés esta información para derivar el mejor primer movimiento. Esto
comienza cuando un generador de movimiento calcula todos los movimientos que la
computadora pudo jugar desde la posición actual, después de todas las respuestas posibles
del oponente y así sucesivamente. Cada paso a lo largo de la cadena de eventos se llama un
medio movimiento en la jerga del ajedrez o una capa en la terminología de la informática.
Cada capa nueva en el árbol de ramificación del análisis abarca aproximadamente 38
de anchura (el número de movimientos en una típica posición de ajedrez) al igual que el
anterior, o 6 de anchura si se esta usando la poda-alfa-beta. La mayoría de las posiciones por
lo tanto residen en los brotes exteriores del árbol, de los cuales el árbol crece hasta el fin del
juego o el tiempo asignado por la computadora se agota. Una función de evaluación entonces
anota cada posición final, asignando quizás un "1" a un jaque mate al oponente, un “1" a un
jaque mate por el oponente y un "0" a un empate. Ventajas más matizadas se pueden también
colocar y balancear contra uno y otro. La computadora puede, por ejemplo, contar los valores
materiales (los peones o piezas) y calcular valores posiciónales de acuerdo a los parámetros
que representan la posición de la pieza, estructura de peones, la ocupación de una línea
vertical sin obstáculo de los cuadrados, el control del centro…etc.
Uno puede consolidar el juego de una computadora mejorando su capacidad en la
búsqueda o refinando su juicio posicional. El juego sin defectos resultaría si una computadora
pudiera generar todos los juegos posibles y clasificar las posiciones finales como dar jaque
mate a o darse jaque mate, o ni unos ni otros. Tal computadora podría sorprender a su
oponente en el primer movimiento anunciando, el "blancas juegan y jaque mate en 137
movimientos," o, alternativamente renunciando la posición sin esperanza. Tal análisis
exhaustivo es fácil en los juegos tan simples como el tic-tac-toe pero impracticable en el
2
ajedrez, en el cual 10.120 juegos discretos son posibles. El juego igualmente perfecto podría
ser obtenido de una reexaminación de una sola capa, con tal que la evaluación posicional fuera
tan buena como ésa obtenida de una reexaminación de solamente una capa, con tal que la
evaluación posicional fuera tan buena como esa graciosa declaración de Richard Reti cuando
dijo que él vio solo un movimiento antes que el mejor.
Muchas pretensiones estaban lejos de las mentes de los primeros programadores de
ajedrez, que eran incluso incapaces de programar las máquinas para observar las reglas del
ajedrez hasta 1958. Otros ocho años pasaron antes de MacHack-6, un programa escrito por
Richard D. Greenblatt del Instituto de Tecnología de Massachusetts, se convirtió en la primera
computadora capaz de alcanzar el estándar de los jugadores medios de los torneos.
Como el número de personas desarrollando programas de ajedrez se incrementaba,
ellos se dividieron en dos campos filosóficos. Llamémoslos el campo de la emulación y el
campo de la ingeniería. El primero afirmaba que las computadoras del ajedrez deben jugar
como lo hacen los seres humanos, quizás por medio de razonamiento explícito sobre
decisiones de movimiento. El último tomó una visión menos restrictiva, discutiendo qué lo que
funcionaba bien para los seres humanos pudiera no ser aplicable a las computadoras. El
campo de la emulación tenía mas que decir en los primeros días, cuando la computadora de
ajedrez era más una cuestión de teoría que de práctica.
En los años 70 el campo de la ingeniería llegó a la etapa central cuando la profundidad
de la búsqueda encontró correlacionarse casi linealmente con la clasificación del programa.
Cada capa adicional agregó cerca de 200 puntos de clasificación a la fuerza de la
computadora. Los programadores por lo tanto han apuntado al acceso de computadoras más
rápidas y buscado trucos de ingeniería para exprimir búsquedas más profundas usando el
poder de proceso disponible.
El manejo de la búsqueda es la mitad de la batalla. Muy en el inicio de la programación
del ajedrez, las rutinas de búsqueda generaron posiciones con prácticamente ningún
discernimiento. Trataron variaciones de transposición que conducen a las mismas posiciones
como si ellas fueran distintas. Tal innecesaria cuenta doble ahora es evitada no perdiendo de
vista las posiciones en arreglos de memoria conocidos como tablas de hashing. Las tablas de
hashing proporcionaron una ventaja incluso mayor ayudando al algoritmo alfa-beta a podar
muchas líneas irrelevantes del juego.
El problema más grande de una búsqueda es saber dónde terminan estas
innumerables ramas. Uno no puede examinar todas las líneas indefinidamente, sino que uno
quisiera por lo menos evitar cortar análisis en posiciones inestables. Tales posiciones resultan
cuando hay análisis en el medio de un intercambio de piezas. Suponga, por ejemplo, la
computadora busca exactamente ocho capas adelante en todas las lineas y descubre una
posicion en la cual puede ganar un caballo a cambio de un peón. Incluso si el movimiento más
próximo permite al oponente recuperar al caballo, la computadora se dirigirá tenazmente hacia
la ventaja material ilusoria.
Esto llamado también efecto horizonte puede hacer a las computadoras confiar en una
forma ajedrez suicida no visto incluso en los jugadores humanos más débiles. Como caído del
cielo y por ninguna razón al observador ingenuo, la máquina empezará a tirar sus peones y
piezas, saliendo de su posición en arapos. Para reducir la ocasión de tales errores,
virtualmente todos los programas ahora agregan una etapa de la búsqueda de la quiescence a
la búsqueda básica. Tales búsquedas examinan típicamente solamente secuencias de
capturas de peones y piezas hasta hasta lograr encontrar una estable, o quiescence, posición
que es conveniente para la evaluación estática.
3
En los años 70 y al inicio de los 80 se vio el predominio de lo que comúnmente se llamó
las máquinas de fuerza-bruta, porque ellas debieron su fuerza a la puesta en práctica de
estrategias básicas y quiescence. El período fue dominado casi continuamente por el programa
Chess 4.0 creado en Northwestern University y sus 4.X descendientes. El programa del
Northwestern brincó de una generación de hardware a otra, mientras aumentaba su
clasificación firmemente hasta superar el nivel de especialista (2000) en 1979.
Varias tentativas de construir las máquinas de propósito-especial en ajedrez también
comenzaron en los años 70 el más famoso, Belle de AT&T bell Laboratories, cruzaron la
barrera de maestro nacional de 2200 en 1983. La era de las máquinas puras de fuerza-bruta
alcanzó su máximo alrededor de 1986 con el ascendiente del Cray Blitz, que funcionó en los
supercomputadores de Cray, y de Hitech, una máquina propósito-especial que generó
movimientos en 64 chips uno para cada cuadrado. Hitech ganó el North American Computer
Chess Championship de 1985, y el Cray Blitz ganó el World Computer Chess Championship
de 1986 en un tiebreak con Hitech en la última ronda. Cray Blitz y Hitech buscaron 100.000 y
120.000 posiciones por segundo, respectivamente.
Deep Thought tiene una historia algo inusual. Primero, se desarrolló por un equipo de
estudiantes graduados que no tenían ningún patrocinio oficial o vigilancia de facultad directa.
(los miembros de la facultad que dirigen el trabajo de computadoras de ajedrez en CarnegieMellon no tenían ninguna conexión con el equipo de Deep Thought.) Segundo, los miembros
del equipo tenían diversas experiencias que los llevaron a adoptar acercamientos poco
ortodoxos.
En junio de 1985 uno de nosotros (Hsu) concluyó que un single-chip generador de
movimiento se podría construir con la tecnología Very Large Scale Integration (VLSI) que fue
proporcionada a la comunidad académica por la Defense Advanced Research Programs
Agency (DARPA). Hsu basó su chip en el generador de movimiento de Belle pero encontró
varios refinamientos que hicieron del diseño más dócil que la puesta en práctica del VLSI. Él
también diseñó el chip de modo que sus características electrónicas (35.925 transistores) se
pudieran empaquetar eficientemente, a pesar de el tamaño mínimo (3 micrones) tamaño
ofrecido por MOSIS, el proveedor de silicio DARPA-funded que proporcionó los servicios de
fabricación. Hsu pasó seis meses trabajando en el plan, simulación y diseño .Y después
esperó cuatro meses para recibir las primeras copias de trabajo. Él probó el chip conectándolo
a una estación de trabajo (workstation) científica, y él encontró que el chip podría procesar
hasta 2 millones de movimientos por segundo, 10 veces más rápidamente que el arsenal de
64-chip de Hitech.
A este punto, Hsu ingreso a las fuerzas armadas con Thomas Anantharaman, en ese
entonces un estudiante graduado de ciencias de la computación en el grupo de reconocimiento
de voz de la universidad. Anantharaman había escrito un programa de ajedrez de juguete que
generó sus movimientos vía un paquete de software. Sustituyendo el paquete de software por
el chip tester de Hsu, Anantharaman aceleró el análisis del programa por 500 por ciento, a un
total de 50,000 posiciones por segundo.
Hsu y Anantharaman se pusieron ambiciosos y felices, decidieron preparar su máquina
para el North American Computer Chess Championship de 1986, que se realizaba en siete
semanas. Se reclutaron para el proyecto a Murray Campbell y Andreas Nowatzyk, dos
graduados en ciencias de computación. Se deseaba una función de evaluación más
sofisticada, y Campbell, quien había jugado una vez ajedrez competitivo, estaba de acuerdo
en trabajar en él. Lo segundo y la tarea aún más dura, dadas las restricciones de tiempo, era
aumentar el chip tester para que pudiera actuar como un simple motor de búsqueda. Tal motor
explotaría la velocidad potencial del chip generador de movimiento más completamente que la
conexión de la estación de trabajo que tenía.
4
Hsu tomó acciones drásticas para tener este componente listo a tiempo: él decidió que
el motor ignoraría algunos aspectos básicos del ajedrez: enrocado del rey, estafar (rook) y la
repetición de posiciones. (Cualquier jugador puede exigir un empate demostrando que una
posición se ha repetido tres veces, con el mismo jugador que mueve en cada caso.) Para
compensar las omisiones, se adoptó una híbrida estrategia de búsqueda en donde las primeras
capas eran buscadas en un servidor que consideraba el enroque y la repetición de posiciones.
Las ultimas capas, qué claro correspondieron a la mayoría de las posiciones, eran analizadas
en el motor.
No teníamos ningún presupuesto y creamos nuestra primera máquina, ChipTest,
usando partes de otros proyectos. El valor de todos los componentes no excedió $500 o
$1,000, el costo estimado del chip DARPA-funded esta tomado en cuenta. Pero ni el motor ni el
software del servidor fueron completamente “debugueados” a tiempo para el campeonato, y la
maquina defectuosa simplemente logro obtener un resultado parejo. Aun así no era un mal
resultado para 7 semanas de trabajo. Nosotros aprendimos mucho de este debut. Hsu observó,
por ejemplo, que dos otros programas habían jugado en líneas en que cada movimiento podría
forzarse y donde ninguno de los dos lados sabía el resultado por adelantado. En otras
palabras, el programa que surgió con la posición buena cedió su ventaja a la suerte. Hsu
propuso remediar el defecto con lo que él llamó el algoritmo de extensión singular. El algoritmo
parece más profundo, es decir, extiende la búsqueda a mayores profundidades, en líneas
dónde la computadora ve sólo una sola jugada buena. La meta es asegurar esas posiciones
críticas y tener una atención particularmente cuidadosa.
Cuando un lado está a punto de ganar, digamos, alfil entrampado, el defensor
normalmente tiene menos y menos jugadas buenas, son más procedimientos de búsqueda en
profundidad. Hacia el final hay sólo una jugada buena, después de que el alfil está finalmente
perdido. En ese caso volvemos a extensión singular. En un juego, permitió a la computadora
asustar a un maestro anunciando mate en 19 movimientos. Anantharaman, la única persona
que entendió el código que él había escrito para el computador servidor de ChipTest, programó
el algoritmo de la extensión singular sólo. Entretanto Hsu completó el microcode, las
instrucciones que controlan el hardware en su nivel más elemental. Investigando entre 400,000
y 500,000 posiciones por segundo, ChipTest ganó el North American Computer Chess
Championship de 1987 en un barrido limpio, derrotando, entre otros, a la máquina campeona
mundial, Cray Blitz. Así acabado el reino de pura fuerza bruta. Actualmente, casi todos los
programas superiores incorporan por lo menos algunos elementos de la búsqueda selectiva.
Nuestro trabajo deja en claro que el hardware de ChipTest podría acelerarse y que la
búsqueda pudiera manejarse más inteligentemente. Con el consejo de Hsu, H. T. Kung dio casi
$5,000 para este nuevo tentativo proyecto llamado Deep Thought.
La versión básica del motor de ajedrez de Deep Thought contiene 250 chips,
incluyendo 2 procesadores, que están enchufados a una placa de circuito simple que mide
cerca de la mitad del largo de esta revista. El motor es manejado por un programa también
llamado el software del servidor, que corre en una estación de trabajo (workstation). Los
procesadores de la máquina tienen la velocidad escasamente más alta que ChipTest, pero el
control mejorado del algoritmo de la búsqueda les permite buscar 30 por ciento más
eficientemente.
El hardware de evaluación tiene cuatro componentes. Una evaluación de posición de
una pieza (la única herencia de ChipTest) asigna puntajes a las piezas según su posición
central, su movilidad y otras consideraciones. Una evaluación de estructura de peón, asigna
puntajes a los peones según parámetros como su apoyo mutuo, su control del centro del
tablero y la protección del rey. Una evaluación del pasar-peón considera peones que no son
bloqueados por los peones del enemigo y pueden adelantarse por consiguiente a la octava
línea y promoverse a reinas. Una evaluación de estructura de archivo asigna los valores a las
configuraciones más complicadas de peones y estafar (rook) en un archivo particular.
5
También empezamos a considerar maneras de poner a punto la función de evaluación
o los parámetros especificados en el software. Tradicionalmente, programadores habían
afinado (tuning) la función a mano asignando los pesos a los material (peones y piezas) - - y las
consideraciones de posición. Nosotros creemos que el nuestro es el único programa que
asigna sus propios pesos automáticamente.
Adquirimos 900 juegos de muestra de maestros y arbitrariamente definimos los pesos
óptimos como los que produce el mejor partido, entre los movimientos que la máquina juzga
para ser mejor y los que los maestros jugaron realmente. La parte del software de la función de
evaluación fue completamente rescrita por Campbell y Nowatzyk para reflejar esta estrategia.
En lugar de asignar a cada posición un valor numérico final, la función de evaluación en el
modo de afinación retorna una ecuación conteniendo un string de términos lineales. En otras
palabras, produce un vector.
Se usaron dos mecanismos de afinación. El primero, se llama escalando la colina (hill
climbing), simplemente fija un parámetro arbitrario de la función de evaluación y entonces
realiza, por ejemplo, búsqueda en cinco o seis capas en cada posición en la base de datos del
juego para encontrar los movimientos que la máquina jugaría. Después ajusta el parámetro y
lo recalcula. Si el número de calces entre las opciones de la computadora y las escogidas por
el gran maestros aumenta, entonces el parámetro se ajusta otra vez en la misma dirección. El
proceso continúa hasta que todos los parámetros han alcanzado su nivel más alto del
funcionamiento. Tomaría años para optimizar todos los parámetros con este método, sin
embargo, solo lo utilizamos en algunos casos difíciles.
El segundo mecanismo de afinación, propuesto y llevado a cabo por Nowatzyk, era
mucho más rápido. Evolucionó de la simple noción de encontrar el mejor calce entre la función
de evaluación de la máquina de posiciones y sus verdaderos valores presuntos. El mejor calce
proporciona el valor promedio mas bajo de error entre el modelo y el valor verdadero. Los
valores verdaderos pueden ser afinados para estos propósitos por los resultados retornados
desde las búsquedas profundas (si un concepto conocido está siendo el parámetro afinador) o
comparando las decisiones de la máquina con aquéllos jugadores humanos de primera clase.
Los juegos de muestra proveen grandes concejos sobre los valores relativos de las
posiciones: cualquier posición alcanzada después del movimiento de un gran maestro es,
después de todo, mejor que todas las otras que se habrían alcanzado vía movimientos
alternativos. En lugar de computar el valor de una posición de sus parámetros, Nowatzyk
calculó los parámetros en base a una diferencia supuesta entre la posición que un gran
maestro escogió y las posiciones alternativas que los grandes maestros habían rechazado. Su
algoritmo tarda sólo unos días para computar, y difiere a escalando la colina, no mejora unos
parámetros en un momento pero mejora el juego entero de parámetros simultáneamente.
Nuestra función afinadora automática de evaluación parece no ser peor, si no mejor,
que las funciones afinadas a mano de tales programas de ajedrez de académicos muy
conocidos como Hitech y Cray Blitz. Allí todavía parece haber una brecha entre la función de
evaluación de Deep Thought y aquéllas de las máquinas de ajedrez comerciales top que
típicamente son el fruto de muchos hombre-año de trabajo. Con el mejor feedback del
procedimiento de afinación automática, nosotros esperamos cerrar la brecha pronto.
Puede parecer extraño que nuestra máquina pueda incorporar conocimientos
relativamente pequeños de ajedrez y aun asi puede jugar contra excelentes jugadores
humanos. Todavía uno debe recordar que la computadora no imita el pensamiento humano,
logra el mismo fin a través de otros medios. Deep Thought ve lejos pero se da cuenta de poco,
recuerda todo pero no aprende nada, tampoco errando ni sobre pasando su fuerza normal. Aun
así, a veces produce visiones que se pasan por alto incluso los mejores grandes maestros.
6
Las visiones inhumanas de la máquina eran quizás la razón detrás de la decisión del
gran maestro Kevin Spraggett para tomar a la máquina como un ayudante para prepararse
para el partido de cuartos de final del World Championship con el gran maestro Artur Yusupov.
La participación de la máquina no tenía efecto discernible en el partido, pero estableció un
precedente interesante. En octubre de 1989 una versión experimental de Deep Thought de seis
procesadores jugo un partido de exhibición de 2 juegos contra Kasparov en New York City.
Aunque la nueva versión era capaz de investigar más de dos millones de posiciones por
segundo, Kasparov se deshizo bastante fácil de él. El resultado no fue tan no esperado, pero el
juego de Deep Thought era algo decepcionante.
Este pasado febrero, el Deep Thought jugó un juego de exhibición contra Anatoly
Karpov, el campeón del mundo anterior y el desafiador de Kasparov en el partido por el titulo
de 1990 (qué empieza en New York City en octubre y concluye en Lyons, Francia). Defectos
que aparecieron en el software experimental en las versiones de seis y cuatro procesadores,
nos llevaron a revertirnos a la versión de dos procesadores. El Deep Thought, beneficiado de
varias mejoras en su función de evaluación, jugó uno de sus mejores juegos en los primeros 50
movimientos, entonces se equivocó una clara posición de empate. Una versión estable de los
seis procesadores habría tenido bastante velocidad para evitar la equivocación.
La velocidad es la llave para trabajar bajo la manera de IBM Thomas J. Watson
Research Center, donde la máquina de la próxima generación está diseñándose ahora.
Debería sobrepasar a sus antecesores por un factor de al menos 1,000. La máquina que
nosotros tenemos en la mente examinará por consiguiente más de mil millones de posiciones
por segundo, bastante para investigar 14 o 15 capas profundamente en la mayoría de los
casos y de 30 a 60 capas en líneas forzadas. Si la relación observada entre procesar la
velocidad y fuertes jugadas de ocupacion, la máquina de la próxima generación jugará a un
nivel de 3400, aproximadamente 800 puntos superior al actual Deep Thought y 500 puntos
sobre Kasparov.
Para lograr esta velocidad, Hsu está diseñando un específico chip procesador de
ajedrez que se proyecta para investigar 3 millones de movimientos por segundo, más de tres
veces más rápido que el Deep Thought actual. Él también está diseñando un sistema
altamente paralelizable que combinará el poder de 1,000 de tales chips, para una ganancia
extensa de por lo menos 300 capas. Anantharaman y Campbell están mejorando varios
aspectos de la versión actual de Deep Thought, para que estas mejoras también puedan
incorporarse en la próxima máquina. Nowatzyk está siguiendo otros intereses.
Nosotros creemos que el sistema será bastante potente, en virtud solo de su velocidad,
para montar un desafío serio al campeón mundial. Nosotros creemos que la suma de una larga
lista de otras mejoras planeadas permitirá a la máquina prevalecer, quizás tan pronto como
1992.
Kasparov difiere, y nosotros respetamos su opinión. En una comunicación privada, él a
reconocido que una máquina que investiga un 1000 millones de posiciones por segundo podría
derrotar la carrera de gran maestro, entonces agregó, "Pero no Karpov y yo!” Kasparov
contendió que los mejores jugadores deben poder prepararse para aprovechar las debilidades
especiales presentadas por las máquinas. Él sostuvo que esa creatividad del humano e
imaginación, en particular su creatividad e imaginación, deben triunfar ciertamente encima del
silicio y el alambre.
Cuando las dos opiniones chocan sobre el tablero, la ingeniosidad de un individuo
sumamente talentoso se destrozará contra el trabajo de generaciones de matemáticos, de
informáticos y de ingenieros. Nosotros creemos que el resultado no revelará si las maquinas
puede pensar sino si el esfuerzo humano colectivo puede eclipsar los mejores logros de los
seres humanos más capaces.
7
Lectura Adicional
BELLE. J. H. Condon and Ken Thompson in Chess Skill in Man and Machine. Second
Edition. Edited by P. W. Frey. Springer-Verlag, 1984.
CHESS 4.5{THE NORTHWESTERN UNIVERSITY CHESS PROGRAM. David
J. Slate and Lawrence R. Atkin in Chess Skill in Man and Machine. Second Edition.
Edited by P. W. Frey. Springer-Verlag, 1984.
LARGE SCALE PARALLELIZATION OF ALPHA-BETA SEARCH: AN
ALGORITHMIC AND ARCHITECTURAL STUDY WITH COMPUTER CHESS.
Feng-hsiung Hsu. Ph.D. Thesis. Carnegie-Mellon University Computer Science
Department, CMU-CS-90-108, February, 1990.
Los Autores
FENG-HSIUNG HSU, THOMAS ANANTHARAMAN, MURRAY CAMPBELL y ANDREAS NOWATZYK Construyeron Deep Thought, la principal maquina de ajedrez del mundo,
mientras completaban doctorados en varios campos de ciencias de la computación en la
Universidad de Carnegie-Mellon. Hsu, Anantharaman y Campbell se han unido a IBM Thomas
J. Watson Research Center; Nowatzyk está con Sun Microsystems. Hsu empezó el proyecto,
trabajó en él a jornada completa y actuó como el arquitecto del sistema. Él recibió un B.S. en
ingeniería eléctrica de la Universidad Nacional de Taiwán. Anantharaman escribió la mayoría
del software del servidor y varios algoritmos. Él recibió un B.S. en ingeniería eléctrica en la
Banaras Hindu University en India. Campbell mantuvo el ajedrez de libro abierto y escribió el
software de precomputation para la función de evaluación. Él recibió B.S. y M.S. los grados en
ciencias de la computación de la Universidad de Alberta. Nowatzyk diseñó y llevó a cabo la
afinación automática de la función de evaluación. Él recibió diplomas en físicas y ciencias de la
computación en la Universidad de Hamburgo en Alemania Oriental.